...

Exactas - Facultad de Ciencias Exactas y Naturales

by user

on
Category: Documents
3

views

Report

Comments

Transcript

Exactas - Facultad de Ciencias Exactas y Naturales
Fronteras
Teoría de
cuerdas
Informática
Cómo funcionan
los buscadores
Superbacterias
Resistencia a los
antibióticos
Mujeres en la
ciencia
Carrera de
obstáculos
Año 19 | Nº 49
Abril 2012
ISSN papel: 1514-920X
ISSN en línea: 1853-2942
Neurociencias
Cerebros que
dejan huella
Área de Popularización del
Conocimiento y Articulación
con la Enseñanza Media
La Facultad de Ciencias Exactas y Naturales de
la Universidad de Buenos Aires cuenta con un Área
de Popularización del Conocimiento y Articulación
con la Enseñanza Media dentro de su Secretaría de
Extensión, Graduados y Bienestar.
Las tareas de esta Área son:
• transmitir a todo tipo de público el conocimiento científico, haciéndolo
de manera clara, amena y divertida sin perder rigurosidad.
• vincular a los alumnos de la escuela media con estudiantes, docentes
y científicos de la Facultad a través de actividades de divulgación
científica, orientación vocacional y difusión institucional.
Equipo de Popularización de la Ciencia (EPC-Exactas)
[http://exactas.uba.ar/popularizacion]
El EPC-Exactas lleva adelante proyectos de divulgación, alfabetización y enseñanza de
las ciencias destinados tanto a la escuela media como al público en general:
• Semanas de las Ciencias
• Exactas va a la Escuela
• La Escuela viene a Exactas
• Ciencia en Marcha
• Olimpíadas de Ciencia
Dirección de Orientación Vocacional (DOV-Exactas)
[http://exactas.uba.ar/dov]
La DOV-Exactas brinda información y asesoramiento para la elección de una carrera
universitaria. Se organizan programas y actividades para acercar a los alumnos a las
carreras científicas:
• Experiencias Didácticas
• Talleres de Ciencia
• Científicos por un Día
• Estudiando a los Científicos
Más información, consultas e inscripciones
Secretaría de Extensión, Graduados y Bienestar | Pabellón II, Ciudad Universitaria
Teléfonos: 4576-3399/3337 internos 37 (EPC-Exactas) y 43 (DOV-Exactas)
[email protected] | [email protected] | www.exactas.uba.ar/media
Editorial
Presidente
Jorge Aliaga
Vocales
Sara Aldabe Bilmes
Guillermo Boido
Guillermo Durán
Pablo Jacovkis
Marta Maier
Silvina Ponce Dawson
Juan Carlos Reboreda
Celeste Saulo
José Sellés-Martínez
Director
Ricardo Cabrera
Editor
Armando Doria
Jefe de redacción
Susana Gallardo
Coordinador editorial
Juan Pablo Vittori
Redactores
Cecilia Draghi
Gabriel Stekolschik
Colaboradores permanentes
Guillermo Mattei
Daniel Paz
José Sellés-Martínez
Colaboran en este número
Beatriz Aguirre-Urreta
Fernando Asteasuain
Analía Karadayian
Diseño gráfico
Pablo Gabriel González
Federico de Giacomi
Fotografía
Juan Pablo Vittori
Diana Martínez Llaser
Impresión
Centro de Copiado “La Copia” S.R.L.
EXACTAmente
es una publicación cuatrimestral
propiedad de la Facultad de Ciencias
Exactas y Naturales de la UBA.
ISSN papel: 1514-920X
ISSN en línea: 1853-2942
Registro de propiedad
intelectual: 28199
Facultad de Ciencias Exactas y
Naturales.
Secretaría de Extensión,
Graduados y Bienestar.
Ciudad Universitaria, Pabellón II,
C1428 EHA Capital Federal
Tel.: 4576-3300 al 09, int. 464,
4576-3337, fax: 4576-3351.
E-mail: [email protected]
Página web de la FCEyN:
http://exactas.uba.ar
La ciencia también puede homenajear a Belgrano
El año 2012 fue establecido, a nivel nacional, como el “Año de Homenaje al doctor D. Manuel
Belgrano”. Seguramente, sería más obvio asociar con nuestra Facultad el “Año de la Enseñanza de las
Ciencias” (establecido para 2008) que hacerlo con el homenaje del año actual. La importancia de la
conmemoración del 2008 se reflejó en el número 39 de esta revista (a través de la nota “De Exactas
al colegio”) y también en el editorial del número 40. Sin embargo, homenajear la figura de Manuel
Belgrano también tiene mucho que ver con la ciencia y la tecnología y, por lo tanto con nuestra
Facultad. En sus informes anuales del Consulado, hace más de 200 años, el primer economista patrio
delineaba un proyecto de desarrollo nacional basado en la necesidad de industrializar las materias
primas, generando trabajo nacional, impulsando el comercio interior, limitando las importaciones,
controlando los monopolios y garantizando la equidad social mediante una justa distribución de las
tierras. Conceptos tales como “Todas las naciones cultas se esmeran en que sus materias primas no
salgan de sus estados a manufacturarse, y todo su empeño es conseguir, no solo darles nueva forma,
sino aun atraer las del extranjero para ejecutar lo mismo. Y después venderlas”; “Ni la agricultura ni
el comercio serían casi en ningún caso suficientes a establecer la felicidad de un pueblo si no entrase
a su socorro la oficiosa industria”; o “la importación de mercancías que impiden el consumo de las
del país o que perjudican al progreso de sus manufacturas, lleva tras sí necesariamente la ruina de una
nación” son todavía hoy de absoluta actualidad.
Belgrano entendía que para poder sostener su modelo de desarrollo necesitaba de ciudadanos con
formación en ciencia y tecnología. Por eso tomó algunas medidas que, en el contexto de la época,
implicaban impulsar el desarrollo de las ciencias exactas que necesitaba ese modelo económico,
entre las que se cuentan la creación de las Escuelas de Dibujo, de Matemáticas y Náutica.
Es bien sabido que el grupo conformado por Belgrano, Moreno, Castelli y Monteagudo no
logró imponerse en 1810 frente a los intereses que defendían los monopolios y la exportación
de materias primas. En los Estados Unidos, por ejemplo, ese tipo de disputa de proyectos debió
ser saldada mediante una guerra civil.
En nuestro país, los intentos de impulsar un desarrollo industrial sostenido han tenido sus avances y
retrocesos. La coyuntura generada por la Segunda Guerra mundial dio la oportunidad de avanzar con
políticas de desarrollo industrial durante algunas décadas. Fue así como se desarrollaron escuelas de
ingenieros, químicos y físicos que impulsaron el desarrollo de la industria petroquímica, aeronáutica
y nuclear. Baste recordar al Ingeniero Humberto Ciancaglini (fallecido recientemente a los 93 años)
quien se formó en los laboratorios de electrónica de la empresa Philips, radicados en el país durante
la Segunda Guerra Mundial. Ciancaglini lideró más tarde el Departamento de Electrónica de la
Facultad de Ingeniería de la UBA. Al impulsar la construcción de la primera computadora electrónica
del país –al mismo tiempo que en nuestra Facultad se instalaba Clementina­­– formó una generación
de ingenieros electrónicos que luego integraron la división Electrónica de la empresa Fate, productora
nacional de la Línea Mil, que se encontraba entre las más modernas de su época a nivel mundial.
Cuando las dictaduras de los años 1966 y 1976 nos hicieron abandonar definitivamente el
modelo de desarrollo, estas capacidades se fueron perdiendo. No es casual que un país que
privilegiaba los servicios frente a la producción nacional eliminara hasta las escuelas técnicas
cuando se consolidó el neoliberalismo en la década de 1990.
Sin embargo, han logrado sobrevivir escuelas de formación profesional que todavía hoy nos permiten
construir satélites y radares. El intento (a partir del año 2003) de retomar un modelo de desarrollo
basado en la industria, con inclusión y justicia social es altamente promisorio, pero sus posibilidades
de concreción dependerán de que se sostengan en el tiempo, dado que, como muestra el ejemplo
de Brasil, se requieren varias décadas para que se comiencen a concretar estos objetivos. En la
medida que se cuente con un sustento político que se imponga por sobre los intereses sectoriales y
corporativos, estas iniciativas continuarán y se transformarán en políticas de Estado.
El país cuenta con un sistema científico y tecnológico que puede aportar a este objetivo, aunque
todavía quedan por resolver dificultades en la articulación de los diferentes actores y en la
federalización del sistema. Sin lugar a dudas, las Ciencias Exactas y Naturales pueden cumplir
un rol destacado en este marco. De nosotros dependerá si podemos implementar finalmente los
ideales de Belgrano, Moreno y Castelli: justicia, equidad, industria y educación.
umario
06
NEUROCIENCIA
32
INFORMÁTICA
Uso científico de
datos de internet
Buscadores de
internet
Por Cecilia Draghi
Por Fernando Asteasuain
10
IDEAS
36
SALUD
Azar y
conocimiento
Superbacterias
Por Gabriel Stekolschik
Por Gabriel Stekolschik
14
SOCIEDAD
Historia y filosofía
(Primera parte)
Ciencia y Género
Por Guillermo Boido y Olimpia
Lombardi
Por Susana Gallardo
16
FRONTERAS
39
EPISTEMOLOGÍA
40
ECOLOGÍA
Teoría de cuerdas
Invasiones
biológicas
Por Guillermo Mattei
Por Analía Karadayian
22
APUNTES
44
PANORAMA
Florentino
Ameghino
Los libros
electrónicos
Por Beatriz Aguirre Urreta
Por Juan Pablo Vittori
24
PREMIOS
50
ARTES
Nobel 2011
De icnitas y
petroglifos
Por Susana Gallardo
Por José Sellés-Martínez
29
BITÁCORA
ADEMÁS
47 Biblioteca
48 Preguntas
Tras los pasos de la
vinchuca
49 Variedades
Por Cecilia Draghi
Por Daniel Paz
Por Ricardo Cabrera
Humor.
FACULTAD DE CIENCIAS EXACTAS Y NATURALES
Nuestro compromiso con la ciencia y la educación,
nuestro compromiso con la sociedad
Tecnología de Alimentos
Ciencias Biológicas
Ciencias de la Atmósfera
Ciencias Geológicas
Ciencias de la Computación
Ciencias Matemáticas
Ciencias Físicas
Ciencias Químicas
Oceanografía
Paleontología
exactas.uba.ar
Ciudad Universitaria | Pabellón II
Ciudad Autónoma de Buenos Aires
EXACTAmente ahora tiene BLOG
Año 15 | Nº 42 | Junio 2009
| $5.
Ya podés conectarte con la revista a través de:
Geología
Un barco
enterrado en
Puerto Madero
Enseñanza
La meteorología
en la escuela
media
http://revistaexactamente.wordpress.com/
bre 2008
Nº 40 | Septiem
| $5.-
Año 15 | Nº 41 | Diciembre
2008 | $5.
Dossier
Galileo y el Año Internacional
de la Astronomía
El hombre
idad
Universidad
que tocó el Univers
cielo
Camppoo
Cam
Actualidadsoja
¿Profesionalista
ea
Alteraciones
Entrevista
Mar
en la costa
Conrado Varotto,
oceánica
o científica?
de los
Dossier
a
Entrevist
un
Daniel Bes, o
teórico Crític
En el blog podrás encontrar todas
las notas de cada número de la revista, comentarios
sobre ciencia y educación, información sobre cómo
recibir EXACTAmente y datos sobre la Facultad.
Año 14 |
el señor
satélites
Salud
Viene
Dengueel
Homenaje
Adiós a Gregorio
Klimovsky
Biofísica
Circuitos que
imitan neuronas
Biología
los
El reino de
hongos
d
ista
sional
¿Profefica?
cientí
DEBATE
Universida
Por Ricardo
TENDENCIAS
uida
n distrib
Computació
Cabrera
o
| [email protected]
en.uba.ar
as
Tendenci
GRID: una
trama
compleja
os.
querem
idad
ltro
qué univers to o con
irrestric
os una
nes sobre
discusio
s;
con ingreso da: ¿querem
debemo
ir muchas o de masas,
fue plantea aún nos la
s conceb
n
elitista
nunca
discusió
nos supimo arancelada, encrucijada
o
ca? Esa
al
Los argenti gratuita
idad cientí
o la princip
o laica,
univers
Libre
o una
Sin embarg
de aceite. profesionalista .
idad
univers
son matices
lo demás
todo
GRID: pleja trama Efectos sociales
m
El boom hace
una co
crack
Carla
García
Nowak
carlanowak
6
Chagas
Los científicos y
la comunidad
@gmail.com
Por
ación
la investig Este
da.
que exige
de datos
ción distribui con una
miento
doras
la computa
procesa
computa
uso de
a de
s frente
d del
red de
demand
. ¿Estamo
en una
la necesida
La gran
amiento
ca plantea compartir recursos y de almacen
Por Gabriel Rocca [email protected]
cientí
cional
Eleanor
o propone d computa
la doctora
concept
Contacto,
de inteligencia
tica?
nal capacida ón informá
En la película busca señales radiotelescopios
neoliberales, el modelo
los
excepcio
de ciencia Al compás de las políticas
Ann Arrowaye mediante
revoluci
Este film
nueva
extraterrestr Puerto Rico. toma elementos de producción agropecuaria en nuestro país sufrió
a una
en 1997
en inglés
de Arecibo,
estrenado (por las siglas
e),
profundas transformaciones a partir de la década del
ficción
Los esperamos.
Entrev
Alberto ista
Gonzale Rex
z
SETI
Extraterrestr
del proyecto de Inteligencia la NASA para
por
90. La lluvia de dólares generados por la exportación
de Búsqueda
la presencia
inicialmente
diseñado
que evidencien
ha logrado ocultar, hasta ahora, los efectos negativos
la Tierra.
señales
fuera de
sondear
es el
inteligentes
en la sociedad. Se trata de un modelo de producción
de seres
este proyecto reactual de el mismo fin,
de datos
sin agricultores y con escasa presencia de trabajadores
Una versión e, que, para
cantidad
[email protected] una gran
capacidad
enorme
rurales, advierten los especialistas.
con
quiere manejar ia, una
es suficienteondas
las
y, en consecuenc to. No
escuche
La
de procesamien que
operador
en la película.
la mano
un solo como ocurre
viene de
de radio, este problema
n distribuido
a
solución
de computació
de un sistema
o Grid.
e, “compudenominad
de tec(literalment
es un conjunto ras y
Grid Computing
en malla”)
que computado puetación
que permite por el mundo ra,
nologías
computado
distribuidos
sistemas como una únicaconstituida por
malla
dan verse
s.
como una
entrelazado
es decir,
n dispuntos
de
miles
de computacióy Carl
paradigma Ian Foster
Este nuevopropuesto por los ‘90, propone
tribuida, a mediados de a recursos comKesselman manera remota
de
máquinas.
acceder
s de otras
putacionale
Facultad
El campo argentino, un vasto territorio que ocupa cerca de 180 millones
de hectáreas y ofrece la tierra como su
recurso productivo básico, ha sido la
base sobre la que se edificó uno de los
sueños más arraigados en el imaginario
nacional: ser el granero del mundo. Es
que la fertilidad de su suelo y la variedad de sus climas le dieron históricamente al país la posibilidad de obtener
una enorme cantidad y variedad de
alimentos, suficientes para abastecer el
consumo interno y proveer, con cantisignificativas, al mercado global.
dades sign
A lo largo del siglo XX, ese potencial
fue realizado, de manera
extraordinario
extraordin
primordial, por productores medianos y pequeños
que constituían una parte
importante del conjunto
de los productores agropecuarios. De hecho, hacia la
década del 60, este grupo
ocupaba cerca de la mitad
de la superficie y aportaba casi el cincuenta por
de la producción
ciento
c
del
d sector. Esta característica
c de la estructura agraria
a la Argentina
distinguía
d
del
d resto de los países de
Latina, por contar
América
A
con
co un amplio sector chadispuesto a adoptar
carero
ca
los adelantos tecnológicos,
en cooperativas
organizarse
org
democrátir
y representarse
camente.
cam
Sin embargo, a partir la década
cad del 90, el desembarco
u nuevo modelo de exde un
agrícola: el “agroplotación
plota
y su mercancía esnegocio”,
nego
10
26
de Ciencias
Exactas
Planet
extras as
Los muolares
lejanos ndos
Dossier
s - UBA
y Naturale
Los And Biodiversidad
Caída es
y ascens
de la cor
dillera o
Dossi
er
Charle
s
Da
La vidrwin
descu a al
biert
o
Año 15
| Nº 43
| Septie
mbre
2009
| $5.
eurociencia
Uso científico de datos de Internet
Cerebros que dejan
huella
Los rastros que dejamos en el uso de tecnologías informáticas
son seguidos de cerca por especialistas del Laboratorio de
Neurociencia Integrativa de la Facultad de Ciencias Exactas y
Naturales de la UBA, que tratan de entender cómo pensamos
a la hora de tomar decisiones. Millones de partidas de ajedrez
son analizadas para comprender mejor al procesador que
llevamos sobre nuestros hombros: el cerebro.
Cecilia Draghi | [email protected]
Fotos: Diana Martinez Llaser
6
U
n mundo virtual nos reúne a diario
para compartir desde conocimientos relevantes de la ciencia hasta noticias
trascendentales como el nacimiento de
un hijo. Allí pasamos cada vez más tiempo de nuestra vida ya sea navegando por
Internet, o siendo parte de las redes sociales más populares como Facebook o
Twitter. Entre todos enviamos unos 291
mil millones de mails por día. En 2010
fueron 107 billones, según calculó Pingdom, una compañía con base en Suecia,
especializada en estudios de la Red. Ese
mismo año se compartieron unos 30
billones de mensajes o vínculos en Facebook y unos 25 billones de tweets en
todo el planeta. La Argentina no se queda atrás. En abril de 2011, casi 13 millones de usuarios pasaron un promedio
de 27 horas on line, según la consultora
Foto de tapa: puesta en escena motivada por
la estética de los elementos en juego en las
investigaciones del laboratorio de Neurociencias,
realizada por nuestra fotógrafa Diana Martinez Llaser.
Actores: Karla Quintero y Ariel Gigena.
comScore Media Metrix, que también
estimó que cada uno estuvo unas nueve
horas mensuales en Facebook.
“Yo tomo el ejemplo de datos cuantificables de 2003, que revelan que los usuarios pasaron nada menos que 9 mil millones de horas jugando al solitario en sus
computadoras, si esto lo comparo con los
7 mil millones de horas que se tardó en
construir el edificio Empire State, llego a
la conclusión de que mucho de ese esfuerzo podría utilizarse para bien de la humanidad”, dice Luis von Ahn, joven matemático guatemalteco que ganó el premio
MacArthur en 2006, creador del Captcha
y luego del ReCaptcha.
¿Quién de nosotros alguna vez no se enfrentó al Captcha, es decir que al abrir una
cuenta en Internet debió teclear letras y
números distorsionados que presentaba
la pantalla, como pasaporte para ingresar al lugar buscado? Estos caracteres no
pueden ser leídos por medios automáticos
o robots, sino solo por humanos de carne y hueso. De este modo, al completar
correctamente esta especie de contraseña,
la computadora que recibe la solicitud
sabe que se la manda un ser humano y no
una computadora fabricante de spam, así
se evita el spam (o correo basura), entre
otros usos.
Si bien el Captcha fue un éxito, von Ahn
sintió que había que darle una vuelta más
de tuerca. “Cada vez que alguien tiene que
escribir esas letritas pierde diez segundos
de su tiempo y, al multiplicarlo por 200
millones (el número de letras resuelto por
las personas cada día), significa que la humanidad desperdicia alrededor de 500 mil
horas diarias por mi culpa”, confesó en
una entrevista a www.guatezona.org.
¿Cómo aprovechar esos instantes burocráticos cibernéticos? ¿Podría servir
para cumplir el sueño de tener una biblioteca universal en la Red? “Sí”, es la
respuesta que da von Ahn desde el Departamento de Computación Científica
de la Universidad Carnegie Mellon, de
Pittsburg, Estados Unidos. “La próxima
vez que abra una cuenta en Facebook y
escriba el Captcha, recuerde que la palabra proviene de un libro que está en
proceso de digitalización, por lo que no
está desperdiciando su tiempo, sino que
está contribuyendo a digitalizar libros.
Son como 50 millones de palabras digitalizadas cada día, eso representa unos
cinco mil libros”, comenta acerca del ReCaptcha que vendió a Google, al igual
que un sistema que ayuda a perfeccionar
la búsqueda de imágenes.
Este último surgió del ESP Game, jugado por dos personas simultáneamente en
Internet, quienes no se conocen entre sí
y probablemente sean de distintos países.
A ellos se les proyecta una misma imagen
para que describan con palabras lo visto
por su compañero. Cuando coinciden,
ganan puntos. Von Ahn se especializa en
construir sistemas que combinan humanos y computadoras en la resolución de
problemas de gran escala que ninguno
puede resolver por sí solo.
Así como las computadoras no pueden
leer bien los textos escaneados, y el
Captcha aprovecha esta debilidad, tampoco las máquinas son buenas en reconocer imágenes. “Por eso, (en Internet)
al buscar fotos de un perro –ejemplifica
von Ahn– le da como respuesta muchas imágenes que no necesariamente
tienen un perro. No hay un programa
que entienda todas las imágenes. En el
juego que hice (ESP Game) se le dice a
la computadora qué hay en cada foto.
Las personas archivan esas imágenes,
pero no se dan cuenta de que lo están
haciendo porque están jugando. Esto lo
compró Google hace casi tres años, por
eso, la búsqueda de imágenes ha mejorado un montón en ese sitio”.
Especialista en diseñar juegos con un propósito, conocido por su sigla en inglés,
GWAPs, von Ahn, instalado en Estados
Unidos, busca aprovechar al máximo el
tiempo que los humanos permanecemos
en la red. En tanto, en la Argentina, los
investigadores usan con otros fines los
juegos disputados on line. Ellos apuntan a
aumentar el conocimiento sobre este procesador impresionante que todos llevamos
sobre nuestros hombros: el cerebro.
Ajedrez en la mira
Todos los caminos parecen conducir a
Internet, y cuando se intenta saber cómo
pensamos, también. Es que allí los usuarios dejamos marcas de nuestro accionar,
que los científicos buscan descifrar. Desde
hace años, miles de cibernautas de todo el
mundo se encuentran en servidores para
disputar partidas de ajedrez, que, con el
fin de entender qué mecanismos tienen
lugar a la hora de decidir, son analizadas
por científicos del Laboratorio Neurociencias, de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires (FCEyN-UBA).
Más de 30 millones de partidas, de jugadores de todo el mundo, que quedaron
registradas en el servidor gratuito mundial de ajedrez, Free Internet Chess Server (http://www.freechess.org), son puestas
bajo la lupa de este equipo interesado en
echar luz acerca de cómo se toman las decisiones, y comprender mejor procesos de
pensamiento.
“La web es una herramienta que facilita
una gran cantidad de datos, lo cual permite hacer preguntas que antes no era
posible formular. Es como tener un microscopio más potente que posibilita interrogar cuestiones que no era factible
contestar con otros instrumentos menos
poderosos”, compara Mariano Sigman,
director del Laboratorio e investigador del
Conicet.
A la abrumadora cantidad de información
que aporta Internet, se suman los beneficios de este tradicional juego. “Entre los diferentes formatos de juego, el ajedrez rápido constituye un laboratorio sin igual para
entender, en un entorno natural, la toma
de decisiones. En cada partida, cada jugador realiza alrededor de 40 movimientos,
7
eurociencia
Fotos paginas 6 y 8: Mariano Sigman, Diego
Fernández Slezak, Agustín Petroni y María
Juliana Leone del laboratorio de Neurociencia
recreando el experimento ante un tablero de
ajedrez, munidos de sus casquetes con sensores
electroencefalográficos.
cada uno de estos involucra una decisión”,
destacan los investigadores de la Universidad de Buenos Aires, Mariano Sigman, Pablo Etchemendy y Diego Fernández Slezak,
junto con Guillermo Cecchi del Centro de
Investigaciones de IBM de Nueva York, Estados Unidos, en un trabajo publicado en
la revista Frontiers in Neuroscience.
En este sentido, Fernández Slezak, doctor
en computación y quien tuvo a su cargo
el armado del robot para analizar las 30
millones de partidas, (el equivalente a una
persona jugando partidas de tres minutos
por jugador durante 342 años sin interrupción), señala: “En la base de datos no
solo tenemos 2500 millones de decisiones,
sino que son 2500 millones de decisiones
calificadas con puntuación precisa. Llevamos dos años analizando esto”.
El ajedrez es un vehículo para estudiar
la toma de decisiones, y la gran cantidad
de partidas en la Red brinda un universo muy vasto, según Sigman. Además, “el
ajedrez es un poco como la réplica a la
vida: una secuencia de decisiones inciertas
que se van concatenando con momentos
de reflexión, de miedo, con emociones,
con momentos creativos y también con
grandes desaciertos”, remarca.
No pasa un día sin que el cerebro decida
qué hacer: desde qué colectivo tomar para
llegar a determinado destino, hasta qué
carrera estudiar para el futuro profesional. “Tomar decisiones es lo que uno hace
todo el tiempo en la vida. Esas elecciones
uno las hace basado en lo que conoce, intuye, en lo que piensa que es mejor. Uno
está definido por las cosas que hace. Uno
es lo que opta”, define Sigman.
8
Medir las decisiones cotidianas no es tarea
sencilla para estudiar en un laboratorio.
“Evaluar si entre las opciones posibles se
adoptó la mejor resolución en un tiempo
limitado es complejo para la investigación, hasta para elecciones que no resultan
trascendentales como comprar un cepillo
de dientes u otro. En este caso resulta difícil cuantificar si la decisión adoptada fue
buena o mala. En cambio, –dice Sigman–
el ajedrez permite medir si la elección fue
correcta o no”.
Navegar por un mar de datos
Con el ajedrez como modelo para estudiar
la toma de decisiones, y un océano de datos donde zambullirse que ofrece Internet,
los científicos de la UBA arribaron a diferentes resultados. “Probamos estadísticamente algo que se sabía intuitivamente:
que los buenos jugadores juegan más rápido al principio y al final, y que saben
cómo comenzar y terminar una partida”,
puntualiza Fernández Slezak. ¿Cómo juega el tiempo en la partida? “Descubrimos
que hay una correlación impresionante. Si
se viene jugando rápido, se sigue así. Y se
da lo mismo en el oponente. Los jugadores se sincronizan: jugadores rápidos hacen
que los contrincantes jueguen rápido, y lo
mismo al revés”, agrega Fernández Slezak.
En este estudio las partidas analizadas eran
de tres minutos por jugador, y se conocen
los puntos ganados por cada uno de ellos
a lo largo de su historial. Este dato permite hurgar cómo juega una persona con
alguien de nivel similar o con un contrincante superior. ¿Varía el tiempo que tarda
en adoptar las decisiones? ¿Las definicio-
nes son acertadas o no? ¿Qué conviene
hacer? Los resultados, que serán publicados en Journal of Experimental Psychology:
General, se basan en un millón de partidas
y muestran que los jugadores cambian de
estrategia. “Lo llamamos efecto miedo o
respeto. Observamos que –coinciden–,
ante un oponente más calificado en el ranking, se juega más lento, es decir se piensa
más cada jugada y el resultado es que mejora la calidad de las mismas. Pero el tiempo gastado no compensa la leve mejora en
calidad de las jugadas. Lo óptimo cuando
el tiempo apremia es elegir la primera decisión que se le ocurre”.
En otras palabras, continúa Sigman: “Uno
rinde mejor si sigue su corazonada bajo
presión temporal, es decir, lo más óptimo
es hacer la jugada que primero viene a la
mente. Esto no quiere decir que si se juega
así se le ganará a un jugador mucho mejor,
pero esta estrategia resulta, en promedio,
más efectiva que otra más conservadora”.
De expertos y principiantes
Un grande del ajedrez, el cubano José
Raúl Capablanca, campeón mundial de
1921 a 1927, ante la consulta de cuál
era el número de jugadas que él pensaba en una partida, contestó: “Solo una,
la mejor”. “Al principio, se pensaba que
los profesionales tenían una capacidad
de cálculo increíble. Esto no es tan así.
La experiencia de años hace que ellos no
calculen todas las jugadas posibles, sino
aquellas que vale la pena calcular”, indica
María Juliana Leone, doctora en Ciencias
Básicas y Aplicadas, del mismo Laboratorio, quien junto con el biólogo Agustín
“La próxima vez que abra una cuenta en Facebook y escriba el Captcha, recuerde que la palabra
proviene de un libro que está en proceso de digitalización, por lo que no está desperdiciando su
tiempo, sino que está contribuyendo a digitalizar libros”, comenta Luis von Ahn, creador del Captcha.
Petroni, buscan usar el ajedrez para comprender la fisiología del pensamiento. “El
principiante mira cada pieza en forma
individual, en cambio el experto observa
el conjunto, como si el tablero fuera un
solo paisaje. El profesional, lejos de fijar
la atención en una pieza, observa la relación entre ellas”, concuerdan, al destacar
resultados de estudios científicos ya realizados en el mundo.
Por su parte, estos investigadores del
Laboratorio en el Pabellón I de la Ciudad Universitaria también miden los
movimientos de los ojos de los jugadores sometidos a una serie de sensores.
“Una cámara de muy alta velocidad,
que registra 2000 fotos por segundo
(cuando una normal toma 25 ó 50),
filma el ojo del jugador durante una
partida por computadora, y estima la
posición de la mirada en la pantalla, es
decir hace seguimiento ocular”, detalla
Petroni, al tiempo que agrega: “Los huCuadernos cibernéticos
La entrega de computadoras a alumnos
como parte del programa nacional “Conectar Igualdad” o “Joaquín V. González”
en La Rioja abre una nueva posibilidad de
estudio, que es tenida en cuenta por los integrantes del Laboratorio de Neurociencia
Integrativa de FCEyN-UBA. “Antes, todos
los chicos escribían en sus cuadernos, que
quedaban apilados en armarios, al igual
que el pensamiento de esos chicos. Ahora
–ejemplifica Mariano Sigman– las redacciones que ellos elaboran están en un lugar
común: la computadora. Pensando a futuro
se podría investigar este material. Podríamos observar el desarrollo de la semántica.
¿Cuáles son los errores ortográficos más
habituales? ¿En qué orden aparecen? ¿Hay
diferencias entre los alumnos de zonas urbanas y rurales?”, enumera, entre las posibles preguntas a realizar.
manos en general no miramos en continuo sino a los saltos, del orden de dos
por segundo. Por momentos, el ojo se
detiene y fija. Se pueden hacer estadísticas de fijaciones”.
Frente al tablero de ajedrez de la computadora los jugadores pueden parecer
disfrazados. Es que llevan en la cabeza
un casquete con sensores electroencefalográficos; otros aparatos siguen de
cerca la frecuencia cardíaca, respiratoria, la transpiración, el flujo sanguíneo,
así como el movimiento de los ojos y
el tamaño de las pupilas. “Todas estas
mediciones indican cómo se modifican
distintas variables fisiológicas o se correlacionan con decisiones que se toman en el tablero”, enfatizan quienes
también han realizado este tipo de experimentos en el Círculo de Ajedrez de
Villa Martelli, en el partido bonaerense
de Vicente López.
Conectados a diferentes instrumentales,
los ajedrecistas –al finalizar la partida–
deben contestar un cuestionario que dé
cuenta cómo vivenciaron diferentes momentos de la partida. “Parecería que la
frecuencia cardíaca es un buen indicador
para saber qué está sucediendo en el juego.
Aunque no tenemos, por ahora, suficiente
cantidad de datos para plantearlo sólidamente”, advierte Petroni.
De búhos y alondras
Otra línea de trabajo que estos investigadores iniciaron en colaboración con el
Laboratorio de Cronobiología de la Universidad Nacional de Quilmes busca evaluar qué les pasa a ajedrecistas con perfiles
de búhos o alondras. “La idea es medir
en qué momento del día se juega mejor.
Los búhos funcionan mejor de noche y las
alondras de día”, indica Leone. La base de
datos son las partidas del portal gratuito
de ajedrez de Internet. “Allí contamos con
jugadores de todo el mundo. Si conoce-
mos el lugar desde donde juegan, podemos saber en qué momento del día realizan cada una de las partidas. Si además de
eso completan un cuestionario acerca de a
qué hora eligen trabajar, dar un examen,
etcétera, podemos conocer sus preferencias diurnas y clasificarlos como búhos
o alondras”, agrega Leone, quien ha sido
una destacada jugadora de ajedrez en su
adolescencia.
Una vez más, el mar de datos procesados
por el doctor en computación Fernández
Slezak, buscará responder no pocas dudas.
“Una de las cosas que estamos mirando es
si uno decide mejor a alguna hora del día.
Es como hacer cronobiología de la cognición. La idea es fijarse si existe alguna
relación entre la fluctuación circadiana de
cuán bien le va cuando juega, respecto de
su propia percepción”, precisa Sigman.
Ésta, como las otras líneas investigativas,
apunta al mismo objetivo. “Uno querría
entender cuáles son las reglas del pensamiento. Es el gran horizonte de todos
estos trabajos. Igual que en la física, se
tienen ecuaciones de gravedad, o electromagnetismo, que rigen la evolución de
las cosas; uno querría descifrar las reglas
de la dinámica del pensamiento. En realidad, tratamos de entender la mecánica
de los procesos mentales”, concluye Sigman acerca de la ambiciosa meta que es
comprender un poco más ese universo
tan vasto que todos llevamos sobre los
hombros, y del cual el ajedrez ofrece una
jugada magistral, para adentrarse en un
mar de datos donde zambullirse a profundidades estadísticas hasta hace pocas
décadas inimaginables.
9
deas
Serendipia
El azar y la sagacidad
Aunque los resultados de la investigación científica suelen
presentarse como el producto de un proceso concienzudo y
riguroso, son innumerables los descubrimientos debido a la
intervención del azar. Algunos de estos hallazgos fortuitos han
sido sumamente importantes para la humanidad.
abía una vez un reino llamado Serendip que, según algunos estudiosos, estaba asentado en la isla de Ceilán
(hoy Sri Lanka). Cuenta una fábula que
tres sagaces príncipes de ese reino solían
encontrar accidentalmente la respuesta
a un problema sin siquiera habérselo
planteado.
La historia, llamada Los tres príncipes de
Serendip, que puede leerse en http://cuentosqueyocuento.blogspot.com, llegó un día
de 1754 a las manos del escritor inglés
Horace Walpole, quien, a partir de esa
lectura, acuñó la palabra serendipity para
describir un hallazgo afortunado acaecido
de manera accidental.
Todo lo que existe en el universo
es fruto del azar y de la necesidad.
Demócrito (siglo IV AC)
Gabriel Stekolschik
[email protected]
10
H
Mientras ese vocablo ya fue incorporado
hace años a los diccionarios más prestigiosos de la lengua inglesa, todavía no existe su traducción al español. Hasta tanto
la Real Academia Española apruebe este
neologismo, quienes utilizan el castellano
suelen hablar de “serendipia” o “serendipidad” para referirse a un descubrimiento
fortuito y provechoso.
¡Eureka!
La historia de los descubrimientos nos
muestra muchísimos ejemplos de serendipias. Tal vez uno de los más conocidos es
el que hizo gritar a Arquímedes luego de
sumergirse en una bañera.
Se dice que, un día, el matemático griego
advirtió que el nivel del agua de la tina subía a medida que su cuerpo se sumergía en
ella. Parece que, cuando dedujo que ese fenómeno le permitiría medir el volumen de
los sólidos irregulares, su entusiasmo fue
tal que salió corriendo desnudo profiriendo su célebre “¡Eureka!” (¡lo encontré!).
Otra serendipia popular es la de la manzana de Newton y la formulación de la ley
de la gravedad. Según William Stukeley
–amigo y biógrafo del físico inglés–, ambos estaban sentados bajo los manzanos
del jardín de la casa del científico cuando
Newton le reveló su “eureka”. En un manuscrito que la Royal Society de Londres
hizo público en 2010*, Stukeley escribe:
“Me dijo que había estado en esta misma
situación cuando la noción de la gravedad le vino a la mente por primera vez.
Fue algo ocasionado por la caída de una
manzana mientras estaba sentado en actitud contemplativa. ¿Por qué esa manzana
siempre desciende perpendicularmente
hasta el suelo?, pensó para sí mismo. ¿Por
qué no va hacia arriba o hacia un lado,
sino siempre hacia el centro de la Tierra?
La razón debe ser que la Tierra la atrae.
Debe haber una fuerza de atracción en la
materia (…)”.
El propio Alfred Nobel, creador del premio
más prestigioso de la ciencia, habría sido
uno de los elegidos por la casualidad. Hijo
de un fabricante de armamento, había
perdido a un hermano a causa de una
explosión de nitroglicerina. Ese hecho lo
llevó a buscar un sistema más seguro para
detonar explosivos, proceso que culminó
en 1867 con su invención de la dinamita.
Desde entonces, comenzó a pensar cómo
combinar nitroglicerina y nitrocelulosa
para producir un explosivo más potente,
pero tan seguro como la dinamita. Se
cuenta que un día de 1875 Nobel se cortó
un dedo con un trozo de vidrio y se aplicó
colodión, una solución viscosa de nitrato
de celulosa que se utilizaba para proteger
las heridas. Parece que, observando su dedo
lastimado, pensó que un menor grado de
nitración, como el que tenía el colodión,
permitiría mezclar la nitroglicerina con la
nitrocelulosa. Estas cavilaciones habrían
sido las que le permitieron fabricar un
nuevo explosivo: la gelignita.
De la penicilina al Viagra
Aparentemente, Alexander Fleming no
era un tipo ordenado. Solía abandonar
en su mesada de trabajo –a veces durante
semanas– los cultivos bacterianos con los
que experimentaba.
Un día de 1928, le llamó la atención que
en uno de esos cultivos olvidados existía
un área en la que las bacterias no habían
crecido y que, precisamente en esa zona
y como resultado de la contaminación
accidental, se había desarrollado un
hongo. El fenómeno pasó desapercibido
para todos los integrantes del laboratorio,
excepto para Fleming, quien dedujo
que el hongo debía fabricar alguna
sustancia que destruía a las bacterias. La
profundización de las investigaciones llevó
al descubrimiento de un antibiótico que
ha salvado millones de vidas y que, por
ser producido por el hongo Penicillium
notatum fue bautizado como “penicilina”.
Muchos medicamentos fueron descubiertos por medio de la serendipia. Esto es
debido a que, frecuentemente, el efecto
farmacológico de muchas drogas se hace
evidente de manera sorpresiva durante las
pruebas clínicas.
En la pasada década de los ’90, la compañía farmacéutica Pfizer estaba testeando
una sustancia con el fin de utilizarla para
tratar problemas cardíacos y circulatorios. Sin embargo, los voluntarios que
estaban tomando la droga empezaron a
confesar que estaban teniendo erecciones
muy frecuentes. El sildenafil o Viagra®,
principio activo de la hoy famosa “píldora azul”, entraba en escena para el tratamiento de la disfunción eréctil, algo que
nadie había planeado.
Tampoco se había pensado que la célebre aspirina, preparada por primera vez
en 1890 para usarse como un antiséptico
interno, sería un valioso analgésico y antipirético que hoy además es recomendado
para prevenir el infarto cardíaco.
Podría decirse que si no fuera por la serendipia los Beatles no habrían escrito Lucy
in the sky with diamonds, canción inspirada por el LSD, una droga cuyo efecto
fue descubierto por casualidad en 1943
cuando el químico suizo Albert Hoffman
comenzó a sufrir alucinaciones después
de que (accidentalmente) una pequeña
cantidad de la sustancia tocara la punta
de uno de sus dedos y fuera absorbida a
través de la piel.
11
ideas
Accidentes saludables
Si bien la Química y la Farmacología son las
disciplinas más favorecidas por la serendipia, la Medicina también tiene lo suyo.
En el siglo XVIII la viruela era una epidemia con un alto índice de mortalidad.
Entonces, durante su estadía en una granja, un médico inglés llamado Edward Jenner observó por casualidad que quienes se
dedicaban a ordeñar vacas no enfermaban
de viruela. Jenner investigó el fenómeno y
se dio cuenta de que esas personas atravesaban una variante de la enfermedad –la
viruela de las vacas– que era transmitida a
través de las ubres y que, en los humanos,
adopta formas benignas.
Al médico se le ocurrió entonces que esa
podía ser una manera de inmunizar contra
la enfermedad y, el 14 de mayo de 1796,
extrajo pus de las pústulas de una joven
ordeñadora infectada con la viruela vacuna y se lo inoculó a un niño sano, quien
efectivamente quedó inmunizado contra
la enfermedad. Nacía así lo que, más tarde, Pasteur bautizaría como “vacuna”, en
referencia a los animales que permitieron
su descubrimiento.
Según parece, la prueba de Papanicolau
tampoco es el resultado de un desarrollo
racional. Se cuenta que el “descubrimiento” de esta técnica llamada también “citología exfoliativa” –exitosa por su simplicidad, bajo costo y efectividad para diagnosticar el cáncer cervicouterino– llegó de la
mano de la casualidad.
A comienzos del siglo XX, George Papanicolau realizaba experimentos en conejillos
de Indias para tratar de explicar la idea de
que los cromosomas X e Y determinaban el
sexo de la descendencia. Para ello, requería
sacrificar a las hembras debido a que (hasta
entonces) era la única manera de determinar si estaban ovulando. Sin embargo, un
día se le ocurrió que “todas las hembras de
especies superiores tienen una descarga vaginal periódica, los conejillos de Indias son
mamíferos y por ende deben de tener una y
esta es tal vez tan pequeña que no se puede
evidenciar a simple vista”.
12
Para observar las esperadas “descargas
vaginales” de los conejillos de Indias, adquirió entonces un espéculo nasal con el
cual tomó muestras de la vagina de los
animalitos. Como a simple vista no se
veía nada significativo, decidió observar
al microscopio. Así descubrió sorpresivamente que había diferentes tipos de
células cuya composición cambiaba, siguiendo un patrón, a lo largo del ciclo
menstrual. Papanicolau viró entonces el
rumbo de sus investigaciones hacia el
estudio de estas células vaginales, lo que
culminó con el desarrollo de la técnica
que hoy lleva su nombre.
Dentro del campo de la medicina, la fisiología ha logrado notables avances gracias
a los accidentes experimentales. A finales
del siglo XVIII, un anatomista italiano
llamado Luigi Galvani había diseccionado
una rana como lo hacía habitualmente. De
pronto, una de las personas allí presentes
tocó ligeramente (por accidente) los nervios del animal con la punta de un bisturí.
Los músculos de sus patas se contrajeron.
Galvani, sorprendido, reprodujo el experimento una y otra vez y denominó al
fenómeno “electricidad animal”. Había
sentado las bases de la neurofisiología y
la neurología. El cambio de paradigma
en este campo fue radical: los nervios ya
no eran tubos huecos que transportaban
fluidos –como Descartes había pensado
tiempo atrás– sino conductores eléctricos.
El premio Nobel de Medicina y Fisiología
de 1913, otorgado a Charles Richet, fue resultado de la serendipia. El científico buscaba un suero que protegiera a buceadores y
bañistas de la toxina de una medusa.
Eran tiempos en los que las teorías acerca de
la inmunidad sostenían que al inyectar re-
petidamente una sustancia tóxica se lograba
inmunizar al organismo contra sus efectos.
Richet inoculó a diferentes animales de
laboratorio con extractos de medusa pero,
ante el agotamiento de este material, continuó sus experimentos con la ortiga de
mar, una anémona que posee un veneno
relativamente potente y de la cual disponía en abundancia.
En enero de 1902 inyectó a un perro con
una pequeña cantidad de la sustancia venenosa. El animal manifestó los síntomas
clásicos de urticaria, somnolencia y descenso de la temperatura. Un mes después
le inyectó la misma dosis, pero el perro enfermó gravemente, presentando vómitos,
diarreas y respiración jadeante. Neptuno
–ese era el nombre del can– murió veinticinco minutos más tarde.
Pensando que se trataba de una reacción
casual, repitió el experimento con más perros. Pero ocurrió lo mismo.
Richet había descubierto el fenómeno de
la anafilaxia, una reacción alérgica severa que se produce luego de haber estado
expuesto a una mínima cantidad de una
determinada sustancia química, a la cual
el organismo se hace hipersensible.
Suerte y verdad
Que el propio Alfred Nobel haya tenido su
serendipia parece haber sido una premonición de lo que ocurriría con el prestigioso
galardón de la Academia Sueca. Porque, a
lo largo de la historia, son muchos los ejemplos de serendipidad que condujeron a la
obtención del lauro máximo de la ciencia.
Por ejemplo, Röntgen recibió el Nobel de
Física en 1901 por el hallazgo de los rayos
X, y Becquerel obtuvo el mismo premio
NOTAS
* http://royalsociety.org/library/moments/newton-apple/#
** http://www.nobelprize.org/nobel_prizes/medicine/laureates/1945/fleming-lecture.pdf
*** El excéntrico trabajo puede consultarse en: http://www.jbc.org/content/early/2011/09/09/
jbc.X111.302950.
Sir Joshua Reynolds (1723–1792) National Portrait Gallery.
Horace Walpole, el escritor inglés que acuñó la
palabra serendipity para describir un hallazgo
afortunado acaecido de manera accidental.
en 1903 por su descubrimiento de la radioactividad. Curiosamente, los archivos
de la Academia no aclaran que ambos hallazgos fueron logrados por casualidad.
Tampoco dicen los registros suecos que
Pavlov –Nobel de Medicina en 1904 por
sus estudios sobre comportamiento condicionado– no buscaba lo que encontró.
Para Fleming, “encontrarse” con la penicilina le significó el Nobel de Medicina en
1945. A diferencia de los casos anteriores,
la Academia ofrece el texto de la conferencia que Sir Alexander brindó durante la
ceremonia en la que recibió el galardón.
En ella reconoció explícitamente que su
logro había sido obra del azar. **
Más recientemente, Courtland Agre, ganador del Nobel de Química en 2003
por el descubrimiento de las acuaporinas,
admitió que alcanzó este descubrimiento
por casualidad, mientras realizaba otra investigación. En 2010, dos científicos rusos
obtuvieron el Nobel de Física por el descubrimiento del grafeno. Ellos mismos se
encargaron de aclarar que habían logrado
el nuevo material mientras jugaban con
un trozo de grafito y una cinta adhesiva.
El último premio Nobel de Química
(2011), otorgado a Dan Shechtman por
su descubrimiento de los cuasicristales en
1982, fue producto de un resultado puramente accidental. A tal punto que, para
los químicos de la época, lo que el científico había encontrado era algo imposible
(ver nota Premios Nobel, pág. 24).
Las serendipias que condujeron al Nobel no
se agotan aquí. Hay más. Y ello hace suponer que si tantos productos descollantes de
la ciencia fueron consecuencia de un accidente fortuito, debe haber muchísimos más
resultados científicos no tan rutilantes que
fueron tocados por la varita del azar.
Un rastreo de la palabra serendipity en
PubMed y PubMed Central, motores de
búsqueda ofrecidos por la Biblioteca Nacional de Medicina de los Estados Unidos,
que permiten el acceso a la base de datos
más completa de artículos de investiga-
ción en ciencias exactas y naturales, nos
devuelve casi dos mil títulos. Otra base
de datos líder a nivel mundial, la Web of
Science, registra más de mil doscientas investigaciones científicas en las que la serendipia está presente.
Estos números no son significativos si se los
relaciona con la enorme cantidad de trabajos
científicos que se publican, pero dan testimonio de que existe una manera de “hacer
ciencia” en la que la serendipia funciona –en
cierta medida– como método científico.
Con los años, la comunidad científica fue
admitiendo la incidencia del azar en sus
avances. Desde aquellas omisiones de la
Academia Nobel con Becquerel, Röntgen, Pavlov y algunos otros hasta nuestros
días, los científicos empezaron a animarse
a reconocer las vicisitudes de sus investigaciones –que antes quedaban ocultas– e,
incluso, a volcarlas en sus papers.
Al mismo tiempo, las revistas científicas
comenzaron a aceptar estos trabajos, en
los que el investigador revela el backstage
de sus experimentos, con sus aciertos, casualidades y fracasos.
Un ejemplo paradigmático de este fenómeno incipiente es el artículo publicado
recientemente en The Journal of Biological Chemistry por el doctor Daniel Steinberg, profesor emérito de la Universidad
de California en San Diego, miembro de
la Academia Nacional de Ciencias de los
Estados Unidos, y uno de los pioneros
en el estudio del rol de los lípidos en la
aterosclerosis.
En ese paper inusitado, Steinberg transgrede las normas de publicación para escenificar dos momentos de su carrera en los
que la serendipia jugó un rol significativo
para el éxito de sus investigaciones. ***
En nuestro país también hay un ejemplo:
un trabajo publicado en 1994 por el doctor Armando Parodi, un prestigioso investigador argentino, da cuenta de la influencia del azar en sus hallazgos.
Sin embargo, otros importantes científicos vernáculos –consultados al momento
de escribir este artículo– descartaron cualquier incidencia de la serendipia a lo largo
de su trayectoria.
Puro invento
Quizás, uno de los campos en donde el hallazgo fortuito ha sido más fértil es el de las
innovaciones. El teflón, el velcro, el celofán,
la anilina, el nylon, el rayón, el neoprene y el
polietileno forman parte de una interminable lista de productos obtenidos por casualidad. Un largo catálogo de momentos en los
que la serendipidad se impuso al desarrollo
racional o a la prueba de una hipótesis.
Pero esta aparente trivialidad de muchos
grandes descubrimientos no es tal, si se tiene
en cuenta una frase atribuida a Louis Pasteur: “En el campo de la observación, el azar
favorece solamente a la mente preparada”.
En otras palabras, cualquiera de estos accidentes podría haber pasado inadvertido si
no hubiera habido allí una mente atenta.
Fue la sagacidad la que posibilitó capturar
ese intervalo del azar.
13
ociedad
Ciencia y género
Carrera de obstáculos
El aporte de la mujer a la ciencia fue invisible durante siglos.
Pero hoy el problema está en discusión tanto en los foros
internacionales como en las instituciones científicas locales.
El Ministerio de Ciencia, Tecnología e Innovación Productiva
lanzó una encuesta para contar con datos sobre las diferencias
en las carreras científicas de hombres y mujeres. Por otro
lado, resultados de investigaciones muestran la existencia de
barreras invisibles.
Susana Gallardo | [email protected]
Ilustraciones: ©Paul Sizer/Sizer Design + Illustration
14
L
as mujeres rara vez aparecen como
protagonistas en la historia de la ciencia. Sin embargo, hoy sabemos que, incluso en la Antigüedad, muchas de ellas
sobresalieron. Por ejemplo, Teano, la esposa de Pitágoras, nacida en siglo VI antes
de Cristo y considerada como la primera
matemática. O Hipatia, matemática y astrónoma, nacida en Egipto en el siglo IV
de nuestra era. En los últimos años, los estudios históricos y sociales sobre la ciencia
han puesto la lupa en el papel de las mujeres desde la antigüedad hasta el presente,
y abrieron un campo interesante de discusión. Lo cierto es que, tradicionalmente,
los historiadores no han reparado en ellas,
o directamente las han ignorado.
Un ejemplo de esa invisibilidad de la mujer aparece en la obra Ciencia Tecnología
y Sociedad en la Inglaterra del siglo XVII,
del reconocido sociólogo estadounidense
Robert Merton, que en la década de 1930
señalaba que el 62% de los miembros iniciadores de la Royal Society de Londres
(la primera sociedad científica) eran puritanos. Pero Merton se olvidó de decir
que el 100% eran hombres. Del mismo
modo, el sociólogo norteamericano Talcott Parsons, fallecido en 1979, sostenía que
la función femenina más apropiada era la
doméstica.
Para las mujeres no siempre fue fácil acceder a la educación. Durante la Edad
Media, la única salida para ellas era el
convento. Durante la Ilustración (siglo
XVIII), al menos las aristócratas y las que
pertenecían a la burguesía ascendente,
fueron incluidas en el proceso de popularización de la ciencia. Sin embargo, los
filósofos iluministas, que combatían el
autoritarismo político e intelectual del
feudalismo, relegaban a la mujer al ámbito de lo privado y lo doméstico. Para Jean
Jacques Rousseau, “la investigación de las
verdades abstractas y especulativas, de los
principios y los axiomas de la ciencias” era
ajena a las mujeres.
Las mujeres pudieron ingresar a las universidades recién a fines del siglo XIX. Las
academias científicas tardaron aún más.
La Royal Society de Londres admitió
dos mujeres en 1945, y la Academia de
Ciencias de Francia, en 1979. En la Argentina, la Academia de Medicina aceptó
a la primera mujer recién en 1991: la reconocida investigadora Christiane Dosne
de Pasqualini.
Un dato interesante es que, desde 1901
–en que se estableció el premio Nobel–
hasta el 2010, solo 21 de los más de 500
premios concedidos en ciencias fueron
obtenidos por mujeres, aunque estaban
incluidas en los equipos de trabajo. El
Nobel de Economía, instaurado en 1969,
fue entregado por primera y única vez,
hasta ahora, en 2009.
Las disciplinas y los preconceptos
Lo cierto es que las mujeres parecen no
preferir ciertas carreras, como por ejemplo
la Física. En la Facultad de Exactas, de los
149 alumnos que ingresaron a la carrera
de Física en 2012, solo el 25% son mujeres. En cambio, en Ciencias Biológicas
la relación entre hombres y mujeres se invierte: de los 324 alumnos inscriptos, el
63,5% son mujeres.
“La gente tiende a pensar que los físicos son hombres”, dice Nina Byers, investigadora del Departamento de Física
de la Universidad de California en Los
Ángeles. Byers acaba de publicar un libro, junto con el físico Gary Williams,
que reúne descripciones detalladas de las
contribuciones de mujeres físicas y matemáticas desde 1876 hasta 1976. En ese
período, emergieron a la ciencia numerosas mujeres, que históricamente habían
sido excluidas de esta práctica. Según los
autores, todas ellas vivieron vidas muy diversas, algunas tuvieron hijos, y otras no,
pero todas, de un modo u otro, sufrieron
la discriminación.
Son numerosas las mujeres que fueron ignoradas, como Lisa Meitner, que cumplió
un rol relevante en el descubrimiento de
la fisión nuclear, junto con Otto Hahn y
Fritz Strassmann. Sin embargo, Hahn fue
el único laureado con el Nobel de Química, en 1944. El caso de Marie Curie
es diferente, ella fue la primera científica
en ser laureada dos veces por la Academia
Sueca. Sin embargo, para Byers, su fama
actual reside, paradójicamente, más en su
condición de mujer, que en su inteligencia
y sus logros científicos.
Lo cierto es que actualmente los temas
de género atraviesan todas las disciplinas
científicas y son considerados en los congresos internacionales. Por ejemplo, dentro de la Unión Física Internacional se ha
creado un grupo de trabajo para discutir
la relación entre las mujeres y la investigación científica. Silvina Ponce Dawson,
profesora en el Departamento de Física de
la FCEyN-UBA preside esa comisión, que
organizó en 2011, en Sudáfrica, la 4ta.
Conferencia Internacional de Mujeres en
Física, de la que participaron más de doscientas personas de casi sesenta países.
En esa conferencia, se expusieron los resultados preliminares de una encuesta
global realizada por el Instituto Americano de Física para conocer la situación
de la mujer en esta disciplina, y que fue
respondida por unos 15.000 profesionales de física, de ambos sexos, procedentes
de 130 países. Los resultados mostraron
que las mujeres, con mayor frecuencia,
se ocupan de las tareas domésticas, y que
el nacimiento de los hijos constituye una
pausa en su carrera, un avance más lento,
o la elección de puestos con menor demanda horaria.
Además, las mujeres manifestaron tener
menores oportunidades profesionales,
por ejemplo, eran convocadas con menor
frecuencia que los hombres a dar conferencias plenarias en reuniones científicas,
a ser editoras de revistas especializadas, o a
participar en comités científicos. También
evidenciaron mayores dificultades que los
hombres para obtener recursos, equipamiento y subsidios para viajes.
“En ese encuentro, también se realizaron
talleres para discutir diferentes problemas de género, en especial, los referidos
al desarrollo profesional. En tal sentido,
se propusieron diversas herramientas para
que las mujeres puedan avanzar en sus carreras, o para que puedan retornar a la actividad científica si debieron abandonarla
temporariamente por cuestiones familiares”, relata Ponce Dawson.
Techo de cristal
Otro tema de discusión es el del límite de
edad para acceder a becas o, en el caso del
CONICET, para entrar a cada una de las
categorías de la carrera de investigador.
“En muchos países, en lugar de la edad
cronológica se tiene en cuenta la ‘edad académica’, que no avanza durante la licencia
15
ociedad
En busca de datos objetivos
En 2011, el Ministerio de Ciencia Tecnología e Innovación puso en marcha una
encuesta en la que participan unos 85 investigadores de importante carrera académica, que en 2009 y 2010 se presentaron a
los premios Houssay y Rebeca Gershman a
la investigación científica. Una vez que se
tengan los resultados de esta encuesta, se
llevará a cabo una de mayor alcance.
“El objetivo de la encuesta es medir y analizar la existencia de asimetrías en la secuencia de eventos y de roles que dieron lugar
al desarrollo de la carrera científica de los
investigadores e investigadoras, teniendo en
cuenta factores de contexto laborales y familiares así como otros que puedan afectar la
equidad en el desarrollo de sus carreras tanto
en el país como en el exterior”, señala Eleonora Baringoltz, asesora técnica en la Dirección Nacional de Información Científica de
la Subsecretaría de Estudios y Perspectivas
del Ministerio de Ciencia y Técnica.
Entre otras cuestiones se indaga qué cargos
jerárquicos ocuparon y a cuáles no pudieron acceder a partir de los obstáculos que
debieron enfrentar. “Queremos saber si a
las mujeres les cuesta más llegar a los cargos, o si llegan pero necesitan más tiempo
para subir de categoría”, subraya, y agrega:
“En todos los países se aconseja realizar
estudios estadísticos, por la importancia de
contar con datos objetivos”.
Además de datos generales sobre situación
laboral, la encuesta pregunta por la asistencia a congresos internacionales, y en qué
países, para determinar si hay diferencias
por género, bajo el supuesto de que las mujeres, por cuestiones familiares, encuentran
más dificultades para realizar viajes al exterior. Asimismo, se indaga por los posgrados realizados, y el tiempo destinado a la
formación académica. También hay preguntas sobre ayuda recibida para la crianza
de los hijos, el goce de licencias de maternidad, y el acceso a guarderías públicas.
16
por maternidad u otras cuestiones similares”, afirma la investigadora. En la Unión
Europea, el establecer límites de edad es
considerado discriminatorio.
“En las asambleas que se desarrollan al
final de las reuniones internacionales,
siempre se discuten recomendaciones vinculadas a los problemas de género, en particular para que las sociedades científicas
de los diversos países puedan ejercer alguna presión social, por ejemplo, para lograr
licencias por maternidad, o que en lugar
de la edad cronológica se considere la edad
académica”, comenta Ponce Dawson.
En la Argentina, las investigadoras Ana
Franchi, Diana Maffia y Silvia Kochen,
junto con Jorge Atrio, todos miembros
de la Red Argentina de Género, Ciencia y
Tecnología (RAGCyT), analizaron el ingreso, la permanencia y la promoción en
el CONICET de varones y mujeres entre
1984 y 2006. Al estudiar el número de
mujeres y hombres en cada una de las cinco categorías de la carrera de investigador
del CONICET, los investigadores vieron
claramente que las mujeres son mayoría
en los niveles inferiores, pero su participación disminuye en las categorías superiores. Así, observaron que el 72% de las
mujeres ocupan los dos niveles más bajos (asistente y adjunto), mientras que el
51% de los hombres están en las mismas
categorías. Solo el 0.4% de las mujeres
está en el nivel superior de la carrera, en
tanto que el 4.5% de los hombres se ubica
en dicho nivel.
Por otra parte, la mayoría de las mujeres
que alcanzaron las categorías más altas no
formaron una familia. Sin embargo, el estudio no pudo determinar si ello fue una
opción real o una imposición para el éxito
profesional.
Según la distribución por disciplinas, los
investigadores vieron que el área de Biología tiene una participación similar de
mujeres y hombres; sin embargo, en la
categoría principal las mujeres son el 26%
y no hay mujeres en la categoría máxima.
En Medicina y Farmacología, donde también la integración de mujeres y hombres
es simétrica; aquí las mujeres aparecen con
un poco más de representación en las categorías superiores, 39% y 8% respectivamente. En Física, las mujeres representan
solo el 24,4% y están casi ausentes a partir
del nivel independiente.
Esta dificultad para acceder a puestos de
mayor responsabilidad es lo que se conoce
como “techo de cristal”: una barrera imperceptible pero imposible de atravesar.
Otra metáfora empleada es la del “piso pegajoso”, que remite a la inercia que mantiene a las mujeres inmovilizadas en su
puesto, atrapadas en la base de la pirámide
económica.
La diversidad en la práctica científica
La Unión Europea incluyó la problemática de género en su Séptimo Programa
Marco de ciencia y tecnología. Así, a través del proyecto genSET (creado en 2009)
se busca mejorar la excelencia de la ciencia en Europa a través de la inclusión de
la dimensión del género, y al respecto se
formularon recomendaciones destinadas
a las instituciones científicas de los países
miembro. La idea es estimular la diversidad de género en la composición de grupos de investigación, así como a la hora de
contratar investigadores y cubrir puestos
de trabajo. También se recomienda valorar y aceptar diferentes estilos de gerenciamiento, lo cual, a su vez, da lugar a diferentes entornos de trabajo y a mejorar los
ambientes laborales.
La adopción de la perspectiva de género
se orienta a tener en cuenta las diferencias
existentes entre hombres y mujeres tanto
en la forma de trabajar como en sus estrategias a la hora de negociar salarios o
pedidos de espacios y equipamiento. En
tal sentido, las estrategias femeninas suelen ser menos agresivas.
El planteo actual de la discusión sobre las
mujeres y la ciencia ha pasado del interés
por el acceso y la igualdad de oportunida-
Barreras invisibles
Para la diputada Diana Maffía, integrante de
la RAGCyT e investigadora del Instituto Interdisciplinario de Estudios de Género, de la
UBA, la situación de la mujer en la ciencia es
una carrera de obstáculos. Por ejemplo, considera como una barrera interna el hecho de que,
en general, las mujeres científicas “asumen los
valores masculinos en el mundo laboral y apenas describen como un hecho la desigual distribución del trabajo doméstico”, señala. Esto
no se relaciona solo con la realización de las
tareas, pues, aunque encuentren reemplazo en
esa actividad, “la administración, las decisiones y el control del trabajo doméstico siguen
quedando a su cargo”.
Por otra parte, habría una segregación vertical que se evidencia en el modo de organización de la comunidad científica, que dificulta
que las mujeres accedan a los puestos de mayor responsabilidad. Lo cierto es que tienen
menos direcciones de proyectos, menos subsidios y por montos menores, y es menor su
participación en los comités de evaluación
sobre distribución de fondos.
Maffia también se refiere a la segregación horizontal, que es la división en el mercado laboral
que hace que las mujeres se concentren mayoritariamente en actividades de menor consideración social, por ejemplo, tareas periféricas y
monótonas de medición, registro y cuidado, o
tareas docentes con mucha obligación de corrección de trabajos y dictado de clases. Y brinda
el relato de una química “que se retiraba mucho
después que sus compañeros varones del laboratorio, porque debía limpiar los instrumentos. Es
decir –subraya Maffia–, no se discutía a quién le
correspondía la tarea de limpieza”.
des, a la preocupación por el papel del género en la práctica científica, según señala
la socióloga Celia Baldatti, y subraya: “La
pregunta es si los científicos y las científicas trabajan de manera diferente”.
La óptica femenina
Para la socióloga Maria Elina Estébanez, investigadora del grupo Redes, del
CONICET, “la ciencia, como actividad
humana, posee las características de quienes la practican y difunden. La sociedad,
por su parte, tiene derecho a disfrutar
y obtener beneficios del conocimiento
científico y tecnológico producido con
esas características propias”, y agrega: “La
sociedad se enriquece con la óptica particular que los hombres y las mujeres le
imprimen al conocimiento”.
La conclusión es simple: si hay menos
mujeres en el sistema científico, la sociedad se va a ver perjudicada, porque hay
un cierto punto de vista que no está expresado ni manifestado en la ciencia. Del
mismo modo, la sociedad también se ve
afectada por la exclusión de otros grupos.
Los puntos de vista, los intereses, los valores de los distintos grupos deberían estar
bien representados en el tipo de ciencia
que se pone a disposición de la sociedad.
En los últimos años, numerosos trabajos
se orientaron a revisar la situación de las
mujeres en el sistema científico tecnológico, con estudios comparativos entre
Latinoamérica, Estados Unidos y Europa.
En este sentido, Estébanez afirma: “En
Latinoamérica, el 46% del personal científico es femenino. En Europa, en cambio,
la cifra desciende a un 32%, y en Estados Unidos también la participación es
menor”. De acuerdo con datos recientes,
la Argentina se destaca en Latinoamérica
con un valor del 49%, y es superada apenas por Paraguay. El hecho paradójico es
la alta participación de la mujer en países
con un desarrollo social y económico relativamente menor que en el primer mundo, y un desarrollo científico de menor
relevancia. “Una lectura preliminar de este
fenómeno indica que el crecimiento de la
participación femenina en la ciencia ocurre en los ámbitos menos dotados de recursos para la investigación, ya se trate de
países con bajo porcentaje del PBI dedicado a la inversión en ciencia o instituciones
de CyT con escaso presupuesto. En estos
ámbitos, las mujeres estarían ocupando
puestos de trabajo con bajo salario”, destaca Estébanez.
La lucha por la igualdad de derechos está
en marcha. Al menos la discusión sobre el
rol de la mujer en la ciencia, invisible durante mucho tiempo, ya es preocupación
de las instituciones científicas.
17
Ali Ries. Casperium Graphics
ronteras
La Teoría de Cuerdas
Física en el ring
Los físicos cultores de la Teoría de Cuerdas son, quizás, los que disponen de mayores y más
sofisticados talentos para manejar un formalismo fascinantemente complejo. Investigadores
de otras ramas dificílmente puedan penetrarla con solvencia, no ya en los detalles, sino en
conceptos troncales de una teoría que es tan ciencia como la matemática pero, respecto a su
objetivo de ser ciencia natural, genera opiniones divididas.
“Es la única teoría en gestación que puede decir algo sobre
la unificación de las fuerzas”,
“solo sirve para solucionar rompecabezas teóricos”,
“el hallazgo de la supersimetría en el anillo del LHC será uno
Guillermo Mattei
[email protected]
18
de los más asombrosos resultados de la Física”,
“no produjo ninguna confirmación experimental en 20 años”
L
os orígenes de la Teoría de Cuerdas
datan la década del ’60 cuando, más
apropiadamente, debió haberse llamado
Teoría de las gomas elásticas pero, probablemente esta denominación pareció carecer de cierta dignidad. El trabajo de sus
primeros investigadores demostró que la
teoría resultaba coherente con las de la
Relatividad Especial y la de la Mecánica
Cuántica, siempre y cuando se cumplieran algunas condiciones tales como que el
mundo debía tener veinticinco dimensiones espaciales y que debían existir partículas como el gravitón, el mediador de la interacción gravitatoria. En los ’70 la teoría
fue reformulada para superar ciertos inconvenientes relacionados con el zoológico de partículas elementales, mediante la
consideración de las llamadas propiedades
de simetrías. Nació así la Teoría de cuerdas
supersimétrica o de Supercuerdas que logró
bajar el número de dimensiones del espacio necesarias a solo nueve.
En este punto, las supercuerdas permitieron unificar, en forma automática, a
todas las partículas elementales y a todas
la fuerzas; incluir a las entidades responsables del electromagnetismo y de las interacciones nucleares; agregar la gravedad
y predecir supersimetría. Todo el corpus
del conocimiento denominado Modelo
estándar de las partículas elementales, sus
tres interacciones (nuclear fuerte, nuclear
débil y electromagnetismo) y la gravedad,
pudieron aglutinarse a través de la idea de
que todos estos fenómenos surgen de las
vibraciones de diminutas cuerdas elásticas
extendidas en el espacio-tiempo y siguiendo leyes muy sencillas.
A mediados de los ’80, un par de encumbrados investigadores demostraron, muy
elegantemente, que la de las supercuerdas
era una teoría finita; es decir, que carecía
de las anomalías propias de los intentos
unificadores anteriores, que conducían a
medidas infinitas de ciertas magnitudes y,
además, que poseía un formato de teoría
cuántica de la gravedad.
Otro hito en el desarrollo de estas ideas
fue el descubrimiento de que la teoría de
cuerdas no era única sino que, en realidad eran cinco teorías de supercuerdas
consistentes en espacio-tiempos de diez
dimensiones. Sin embargo, en 1995, los
expertos demostraron que esas cinco teorías eran una misma teoría, bautizada Teoría M siempre que se pagara el precio de
aumentar en una, once, las dimensiones
del espacio-tiempo. Simultáneamente,
una imagen más abarcativa acompañó
estas revolucionarias nociones: no solo
objetos unidimensionales podían vivir
en estos espacios sino también superficies
bidimensionales o membranas. Es más,
nada impidió la presencia de entidades
de dimensiones mayores a dos que fueron
imaginativamente llamadas d-branas. Notoriamente, al estudiar la termodinámica
de ciertas branas enrolladas alrededor de
las dimensiones adicionales, se pudieron
reproducir las propiedades termodinámicas de algunos famosos personajes de la
cosmología: los agujeros negros.
En estos temas trabajaba en 1996 el argentino Juan Martín Maldacena (que había empezado a estudiar en la FCEyN y
se había graduado en el Instituto Balseiro)
cuando, en 1997, revolucionó desde Harvard al mundo académico con el artículo
científico más citado de la historia. Maldacena conjeturó (ver EXACTAmente número 13*) que las teorías de cuerdas, que
describen la gravedad, podrían tener una
teoría alter ego o dual del tipo de las que
describen a las partículas sin la gravedad
en el modelo estándar. Si se probara esta
conjetura, habría una descripción exacta
de una teoría cuántica de cuerdas o un
puente inédito entre mundos teóricos que
hasta el momento no se podían conciliar.
Mientras tanto, en 1998, en otro lugar de
la metrópoli física, los cosmólogos estudiaban la expansión de galaxias lejanas por
medio de las explosiones de estrellas supernovas en sus interiores. La conclusión
de estas observaciones indicó que el ritmo
de expansión del Universo era acelerado.
Sorprendentemente, ese ritmo solo era
compatible con la presencia de un extraño
agente universal que simplemente “estaba ahí” pero que no tenía relación con la
materia y la energía conocidas en forma
de ondas y partículas. A esta quintaesencia los científicos denominaron energía
oscura. Aún ignorando la naturaleza de
semejante usina energética, los astrofísicos pudieron describir sus efectos sobre la
expansión del universo de manera experimentalmente contundente. Uno de los
candidatos a tener que ver con la energía
oscura es la llamada constante cosmológica
(Ver EXACTAmente 41**). Hasta antes de
1998, las pruebas disponibles indicaban
que esta constante era casi nula, lo cual
esperanzaba a los teóricos con la idea de
hallar un nuevo principio que estableciera
esa nulidad. Sin embargo, las observaciones indicaron que era no nula y positiva.
De todas maneras, la teoría de cuerdas no
solo no predijo la energía oscura sino que,
aún hoy, le resulta difícil incluir el valor positivo de esa aceleración. En particular, no
podía explicar por qué la constante debía
ser nula pero sí por qué no podía ser positiva. Es más, la famosa conjetura de Maldacena suponía un espacio tiempo con una
constante cosmológica negativa.
En síntesis, las supernovas de 1998 al parecer contrapusieron negativamente una
observación experimental al esquema que
la teoría de cuerdas proponía. Uno de los
máximos referentes mundiales de la teoría
de cuerdas, Edward Witten, opinaba: “No
conozco una manera clara de obtener un
universo con constante cosmológica positiva a partir de la teoría de cuerdas o de la
teoría M”.
“Incorporar una constante cosmológica
positiva y pequeña a la teoría no es imposible pero sí muy difícil. Quizás sea el
problema más grande y serio que la teoría
de cuerdas enfrenta hoy, pero de ningún
modo la invalida”, explica el investigador
del CONICET en el Departamento de
Física de la FCEyN y especialista en teoría
de cuerdas, Gastón Giribet.
19
ronteras
Dimensiones extras
“Si en el mundo no hubiera diez u once dimensiones, la teoría de cuerdas tal cual hoy
la entendemos sería errónea. El problema
es que, con las energías que podemos manipular tecnológicamente, es muy difícil
chequear si esas dimensiones existen o no.
Luego, hay que ser justos cuando se ataca
a la teoría de cuerdas y a su imposibilidad
pragmática de contrastar lo que ella misma
predice, que no es lo mismo que atacarla
porque no predice nada”, apunta Giribet
y agrega: “la idea de dimensiones extra a
mí me entusiasma mucho. Imaginemos
por un segundo que sean reales, que el día
de mañana alguien se da cuenta de que el
universo tiene diez dimensiones espaciales; ¡sería uno de los descubrimientos más
grandes de la humanidad!”.
Sin embargo, el epistemólogo argentino
Mario Bunge critica: “…la teoría postula
que el espacio físico tiene más de tres dimensiones, simplemente para asegurarse
consistencia matemática. Puesto que estas
dimensiones extras son inobservables, y
puesto que la teoría se ha resistido a la confirmación experimental durante más de tres
décadas, parece ciencia ficción o, al menos,
ciencia fallida. Puesto que estas teorías se
encuentran en discrepancia con el conjunto
de la Física, y violan el requerimiento de falsacionismo, pueden calificarse de pseudocientíficas, incluso aunque lleven pululando
un cuarto de siglo y se sigan publicando en
las revistas científicas más prestigiosas”.
Y Witten defiende: “Si bien todavía no sabemos cuán grandes son las dimensiones
extras, esperamos explorar eso de diferentes
maneras. Las dimensiones extras realmente
existen pero están tan fuera de nuestra vista como lo están los núcleos atómicos. Por
qué vemos solo tres dimensiones espaciales,
ese es el gran problema a resolver del cual
por ahora no tenemos respuesta”.
Buscando gomas elásticas
El límite energético, que parecen haber alcanzado definitivamente los aceleradores,
20
está muy lejos de las escalas donde las cuerdas
son protagonistas. Por esto, algunos científicos desvían la búsqueda a objetos astrofísicos primordiales, como las llamadas cuerdas
cósmicas (que, en principio, no tienen nada
que ver con la teoría de cuerdas), o las ondas
gravitacionales, que son una sinfonía cósmica
remanente de los grandes eventos gravitatorios del Universo.
“Un aspecto importante de la teoría de cuerdas es que, definitivamente, es testeable. Así
lo demuestra la predicción de la supersimetría que nació de las cuerdas en los ’70 y que
los físicos experimentales están tratando de
hallar hoy en el LHC (Large Hadron Collider). En la historia de la ciencia es difícil
hallar un tipo de predicción tan espectacular como ésta. Pero hay muchas otras maneras concebibles de testear la teoría mediante
exploraciones cosmológicas, por ejemplo y
entre otras, del fondo cósmico de microondas. No tengo la bola de cristal para saber
cómo será la confirmación de la teoría pero
tampoco lo sabían los que teorizaron sobre
las estrellas de neutrones, los agujeros negros o las ondas gravitacionales, en los años
20 y los 30, y que las nuevas tecnologías,
de alrededores del 2000, se encargaron de
confirmar. Pienso que la Naturaleza resultará buena con nosotros y habrá una bonita
sorpresa, como ocurrió tantas veces en el
pasado. Yo nunca pensaría que una teoría errónea nos llevara a entender mejor la
teoría cuántica de campos o que produjera
novedosas descripciones de los agujeros negros”, abunda Witten.
Mientras que Giribet aporta: “De hecho,
cuando uno hace física y busca entender
la naturaleza usando la matemática, ejerce
un acto de fe. No hay a priori una garantía
de que eso funcione, en absoluto. Podría
darse que la naturaleza sea descriptible con
matemática que todavía nosotros no podamos entender o que podríamos entender pero no todavía. La física es matemática pero, además, es más que matemática
cuando uno le superpone toda una estructura semántica. Yo opino que la teoría de
cuerdas sí es una teoría física. La teoría de
cuerdas, pese a las críticas, es contrastable
en el sentido de que hace afirmaciones sobre la naturaleza que, de no ser ciertas, la
teoría resultaría errónea. Eso es una teoría
contrastable. Ahora bien, contrastable no
es una cosa que está bien definida; o sea,
qué es contrastable depende un poco del
que habla. No es contrastable en el sentido pragmático de que, lamentablemente,
no tengamos tecnología para acceder a las
energías para efectivamente comprobar
esas afirmaciones contrastables. Eso no
es culpa de la teoría de cuerdas, que hace
afirmaciones sobre altas energías en escalas
de tamaños inimaginablemente pequeños.
Luego, es desleal, si cabe el término, decir
‘nosotros no podemos experimentar en
nuestra escala, así que nuestra teoría es un
desastre’. Lo más interesante de la teoría
de cuerdas es que describe la gravedad a
nivel cuántico, lo que significa que une la
teoría de la relatividad general de Einstein
con la mecánica cuántica y que, por ejemplo, la conjetura de Maldacena sea algo
que trasciende a la teoría de cuerdas, pese
a haber nacido de ella”.
Crítica de la razón pura
La elaboración de la teoría tuvo que vérselas con las críticas de dos grandes monstruos de la física de los ’70 y ’80. Por un
lado, Richard Feynman decía: “No me
gusta que no estén calculando nada. No
me gusta que no comprueben sus ideas.
No me gusta que para cada cosa que no
coincide con la experimentación amañen
alguna explicación del tipo ‘bueno, todavía puede ser verdad’ ”. Por otro, Sheldon
Glashow opinaba: “… la teoría de supercuerdas no se deduce como la consecuencia lógica de un conjunto atractivo
de hipótesis sobre la naturaleza…”. Dos
nóbeles en contra.
En otra línea, el físico estadounidense y
egresado de Harvard Lee Smolin, autor
del polémico libro Las dudas de la física
en el siglo XXI, opina que la teoría M sigue
siendo una conjetura fascinante y resulta
tentador creer en ella, pero no constituye
una auténtica teoría sino una conjetura
"String Theory" Copyright 2010 - Hal Tenny
sobre la que estamos deseando creer. “La
teoría de cuerdas ha generado una gran
cantidad de excelente matemática, ha mejorado la comprensión de algunas otras
teorías de la física pero ¿es una teoría científica? No hay precedentes en la historia
de la ciencia, o al menos desde finales del
siglo XVIII, de que transcurriera más de
una década entre la presentación de una
teoría importante y el fracaso, o bien la
acumulación de una impresionante cantidad de datos experimentales y de apoyo
teórico, de la nueva teoría”, expresa Smolin que, desde el 2001, trabaja en Canadá.
Por su parte, Bunge, fiel a su estilo frontal,
opina: “La consistencia, la sofisticación y
la belleza nunca son suficientes en la investigación científica. La Teoría de cuerdas
es sospechosa de pseudociencia. Solo parece científica porque aborda un problema
abierto que es a la vez importante y difícil,
el de construir una teoría cuántica de la
gravitación”.
Gastón Giribet, a su vez, retruca: “Puede
ser que la teoría de cuerdas esté mal. Puede ser que esté bien. Pero es muy ingenuo
atacar a la teoría de cuerdas porque sea
matemáticamente complicada o porque
prediga dimensiones extras. Podría perfectamente darse el caso de que la descripción de naturaleza sea matemáticamente
complicada y que, a escalas microscópicas, el universo tenga más de cuatro
dimensiones. No hay ningún problema
con eso. Nos puede sonar contra intuitivo pero también hay que tener en cuenta
que nuestra intuición se educa de la mano
de nuestra experiencia cotidiana y que ya
aprendimos a manejar la contra intuición
en la teoría de la relatividad o en la mecánica cuántica”.
Smolin ha logrado generar con su libro
una gran polémica y Giribet no elude su
comentario al respecto: “Voy a ser políticamente correcto: pese a que el libro de
Smolin es ante todo una auto propaganda, se lo puede analizar en dos partes. Por
un lado, una crítica a la teoría de cuerdas
desde el punto de vista científico y, por
otro, una crítica desde el punto de vista
sociopolítico de la comunidad científica.
Sobre el segundo no vale la pena hablar.
La primera parte, a su vez, se la puede separar en otras dos: una crítica seria y otra
ridícula. La crítica seria tiene que ver con
la constante cosmológica positiva. La otra,
Smolin la puede compartir con mi abuela:
que la teoría es complicada matemáticamente o que tiene muchas dimensiones”.
En el mundo de los cultores de las cuerdas, nadie afirma que la forma en la que
entienden la teoría de cuerdas hoy, sea la
respuesta definitiva a todas de las preguntas fundamentales de la Físca pero sí que
muchas ideas que surgen de ella necesariamente estarán relacionadas con la respuesta. Es como si la teoría de cuerdas fuera
una versión ingenua de una vía que potencialmente pueda llegar a dar, en unos
cincuenta años, una respuesta en donde
algunas de sus postulaciones actuales estarán y otras no.
En el mundo de los críticos de las cuerdas
nadie quiere resignar, ni siquiera mínimamente, el perfil completo que caracterizó
la gestación de grandes revoluciones de la
Física como la Relatividad o la Mecánica
Cuántica.
El debate seguramente continuará.
*http://www.fcen.uba.ar/fotovideo/EXm/
PDF/EXM13.pdf
**http://www.fcen.uba.ar/fotovideo/EXm/
PDF/EXM41.pdf
21
puntes
Retrato de Ameghino de Luis De Servi
(1863-1945).
Reproduccón: CePro-EXACTAS.
Florentino Ameghino
El primer adelantado
Beatriz Aguirre-Urreta*
F
lorentino Ameghino, geólogo, paleontólogo y antropólogo, nació en
Luján, el 18 de septiembre de 1854, aunque algunos investigadores sostienen que
podría haber nacido en Tessi, Italia, el 19
de setiembre de 1853, basados en una
partida de nacimiento con el nombre de
Juan Bautista Fiorino José Ameghino. Sin
embargo, sus padres, Antonio Ameghino
y María Dina Armanino, llegaron de Italia
sin hijos, según lo afirmaron familiares.
Su formación primaria la realizó en forma particular, ya que su propia madre le
enseñó a leer y escribir. Su curiosidad era
atraída por los restos de huesos petrifica22
dos y de conchillas de moluscos que observaba y recogía en las barrancas del río
Luján. Supo también en esos años que un
venerable médico y naturalista argentino,
el Dr. Francisco Javier Muñiz, quien vivía
todavía allí en Luján, había descubierto
y descripto algunos de esos fósiles. También que el Dr. Germán Burmeister, sabio
alemán a cargo del Museo Nacional de
Historia Natural, había publicado varios
volúmenes con hermosas ilustraciones en
los que daba a conocer muchas especies
raras de aquellos mamíferos fósiles. Llegó
a visitar el Museo donde pudo admirar
los megaterios, milodontes y gliptodontes
y compararlos con los fósiles que él mis-
mo había recogido. Empezó entonces a
hacer una colección de todos los fósiles
que se hallaban en las cercanías del río
Luján, colección que en pocos años fue
tan numerosa que ya no cabía en la casa
de sus padres.
Posteriormente estudió con Carlos D’Aste
hasta 1867 cuando viajó a Buenos Aires
para ingresar en la Escuela Normal. Allí
permaneció solo un año ya que ésta cerró.
Tenía 14 años cuando leyó las obras de
Charles Darwin y Charles Lyell. Estudió
casi solo los idiomas que necesitaba para
leer libros extranjeros y llegó a conocer
además de castellano e italiano, francés,
inglés y alemán.
Luego de su corta estadía en Buenos Aires se trasladó a la localidad bonaerense de
Mercedes, donde a los 16 años fue designado preceptor en la Escuela N°2 General
San Martín, institución en la que luego
fue maestro y director.
En su trayectoria científica se pueden distinguir tres etapas: en la primera, que coincide con su juventud, estuvo especialmente
dedicado a las exploraciones del suelo pampeano y a estudios sobre la antigüedad del
hombre en América. Se puede decir que en
esta etapa, que abarca desde 1875 a 1882,
Ameghino fue arqueólogo y geólogo más
que antropólogo. En 1878 viajó a la Exposición Universal de París para exhibir su
colección arqueológica y paleontológica. Al
año siguiente tuvo una destacada actuación
en el Congreso de Americanistas celebrado
en Bruselas. Entre 1880 y 1881 aparecieron sus obras Los mamíferos fósiles de la
América meridional (en colaboración con
el paleontólogo francés Henri Gervais), La
formación pampeana y La antigüedad del
hombre en el Plata.
Ameghino, infatigable trabajador, para
facilitar su tarea creó un sistema taquigráfico (Taquigrafia Ameghino. Nuevo sistema
de escritura, 1880) que, según los entendidos, se hallaba a la altura de los mejores
de su época.
A tres años de su partida regresó al país casado con la joven parisina Leontina Poirier.
Se instaló en Buenos Aires donde abrió una
librería y papelería llamada El Glyptodon.
La segunda etapa, entre 1882 y 1906, es
la más trascendente de su producción
científica. Vuelto de Europa con un gran
caudal de conocimientos adquiridos de sus
colegas y en los museos de París, Bruselas
y Londres y con el material que provenía
de las expediciones de su hermano Carlos a
la Patagonia, Florentino fue realizando un
monumental estudio de cientos de fósiles,
que interpretaba a la luz del evolucionismo
darwiniano, aun cuando esta teoría no se
hallaba por entonces firmemente establecida entre los naturalistas.
En 1884 escribió Filogenia y la Universidad de Córdoba lo invitó a ocupar la cátedra de Zoología y poco después le otorgó
el título de Doctor honoris causa. Designado miembro de la comisión directiva de la
Academia de Ciencias, fue un importante
colaborador del boletín de dicha institución. En ese mismo año participó en una
expedición científica al Chaco junto con
Eduardo L. Holmberg y Federico Kurtz.
completado su obra, recibió la primera
designación duradera del Estado. Cierra
esta etapa de su vida en 1906 con Formaciones sedimentarias del Cretáceo Superior y
del Terciario de Patagonia, una obra de síntesis que no se limita a las descripciones,
sino que plantea hipótesis sobre la evolución de los diversos mamíferos y analiza
las distintas capas de la corteza terrestre y
sus posibles edades.
En 1886, Francisco P. Moreno lo nombró
vicedirector y secretario del Museo de La
Plata, asignándole la sección de Paleontología, que Ameghino enriqueció con su
propia colección. Carlos obtuvo el cargo de Naturalista viajero y comenzó sus
exploraciones por la Patagonia. Pero fue
poco el tiempo en que Ameghino y Moreno trabajaron juntos y luego de un año
Florentino fue relevado de su cargo oficial
y le fue prohibida la entrada al museo, situación que persistió hasta 1904.
Finalmente, entre 1907 y 1911, en la tercera etapa de su desempeño académico,
vuelve Ameghino a su primitiva dedicación: el hombre fósil, las descripciones de
los primeros habitantes, sus industrias y
culturas. Los últimos tres años de su vida
los dedicó al estudio de los restos que él
atribuyó a los precursores del hombre.
En 1907 aparecieron sus Notas preliminares sobre el Tetraprothomo argentinus y en
1909 Le Diprothomo platensis, un précurseur de l’homme du Pliocéne inférieur de
Buenos Aires.
En 1889 presentó en las Actas de la Academia Nacional de Ciencias su obra magna, compuesta por 1028 páginas y un
atlas: Contribución al conocimiento de los
mamíferos fósiles de la República Argentina.
Esta obra le valió una medalla de oro y un
diploma de honor en la Exposición Universal de París de 1889.
Cuando se desempeñaba como profesor
de Mineralogía y Geología en la Facultad de Ciencias Físico-Matemáticas de la
Universidad de La Plata en 1902, fue convocado por Joaquín V. González, ministro de Justicia e Instrucción Pública, para
hacerse cargo de la dirección del Museo
Nacional de Historia Natural de Buenos
Aires que estaba vacante tras la muerte de
Carlos Berg. Con la dirección de Ameghino, a pesar de que contaba con un muy
bajo presupuesto, el museo consiguió
acrecentar notablemente su material.
Son también estos los años en los que financia sus emprendimientos y las expediciones de Carlos a la Patagonia con las
ganancias de una modesta librería, y solo
en 1903, cuando prácticamente había
Ameghino murió en La Plata, el 6 de agosto de 1911, en medio de una atmósfera de
generalizado reconocimiento a su labor y a
su figura. Ese mismo reconocimiento que
le había faltado en la época de oro de su
trabajo científico.
En síntesis, Florentino Ameghino fue la
primera figura de la ciencia nacional que
alcanzó trascendencia internacional. Después de los trabajos fundacionales de la estratigrafía y paleontología argentinas realizados por d’Orbigny, Darwin, Doering
y Burmeister, correspondió a Florentino
Ameghino estructurar el armazón de los
conocimientos geológicos de gran parte
del país, sobre el que se apoyarían las futuras investigaciones.
Para George Gaylord Simpson, uno de
los fundadores de la Teoría sintética de la
evolución, la obra de Ameghino fue “uno
de los más notables logros en la historia
de la ciencia”.
* Profesora del Departamento de Ciencias Geológicas. Area de Paleontología.. FCEyN-UBA.
23
Rockefeller University
remios
Ralph Steinman
Nobel 2011
Líneas de defensa,
expansión del universo
y cuasicristales
En Medicina, el canadiense Ralph Steinman, el estadounidense
Medicina. En la línea de defensa
Bruce Beutler y el francés Jules Hoffmann fueron galardonados
l Nobel de Medicina 2011 premia
dos áreas de investigación que se relacionan con los dos componentes del sistema inmune, la defensa innata y la adaptativa. Bruce Beutler y Jules Hoffmann trabajaron en la primera, y Ralph Steinman,
en la interfase de ambas. Cabe señalar
que este último no llegó a enterarse del
galardón, pues falleció tres días antes del
anuncio. De todos modos, su familia recibirá la mitad del premio, mientras que
a Beutler y Hoffmann les corresponderá
la otra mitad.
por sus descubrimientos sobre la forma en que se articulan la
primera y la segunda línea de defensa del organismo frente
a la invasión de patógenos. En Física, los tres cosmólogos
norteamericanos Saul Perlmutter, Adam Riess y Brian Schmidt
fueron premiados por el descubrimiento de la expansión
acelerada del Universo. El hallazgo de los cuasicristales le valió
el Nobel de Química al israelí Dan Shechtman.
Fotos: © The Nobel Foundation - Ulla Montan
24
E
“Si hay algo que revolucionó la forma de
ver la inmunología fueron los hallazgos
de Steinman”, resume el doctor Gabriel
Rabinovich, investigador del CONICET
y profesor en la Facultad de Ciencias
Jules A. Hoffmann
Bruce A. Beutler
Exactas y Naturales (FCEyN) de la UBA,
quien ha trabajado en estrecho contacto
con el investigador fallecido.
“Lo que descubrió Steinman es el eslabón
perdido entre el sistema inmunológico y
el microbio que está entrando o el tumor
que está creciendo”, subraya Rabinovich,
y prosigue: “Hoy se sabe que sin células
dendríticas no se puede generar ninguna
respuesta, un linfocito T virgen no se puede activar, no puede reaccionar frente a
ningún patógeno”.
En 1973, el científico laureado identificó
unas células que poseían ciertas prolongaciones a la manera de ramificaciones, y
por ello las llamó ‘dendritas’ (de dendron,
que significa árbol, en griego). A partir de
entonces, Steinman se dedicó de lleno a
estas células con el fin de desentrañar su
función biológica, y pudo demostrar que
son las encargadas de que los linfocitos
puedan reconocer al extraño y así sean capaces de atacarlo. Sin ellas, los linfocitos
no pueden actuar. Pero, además, estas células pueden utilizarse como vacunas para
estimular la respuesta inmune, por ejemplo en el cáncer.
Sin ellas, no hay acción
“Las células dendríticas son las presentadoras de antígeno más importantes. Ellas
patrullan el organismo y, cuando se encuentran con un virus o bacteria, captan el
antígeno y se lo presentan a los linfocitos
T, que son los encargados de producir anticuerpos para destruir al intruso”, explica
Rabinovich, que es jefe del Laboratorio de
Inmunopatología del Instituto de Biología y Medicina Experimental.
Dado que hay distintos tipos de linfocitos T, la función de las dendríticas es dual:
por un lado, avisan del peligro y se lo comunican a los linfocitos T, y, por otro,
perfilan el tipo de respuesta que debe generarse. De acuerdo con esa información,
el linfocito T se transforma en un linfocito
T efector, es decir, especializado en una tarea particular.
Actualmente, mediante la manipulación
de las células dendríticas, los investigadores pueden activar la respuesta inmune
y amplificarla. En efecto, pueden extraer
esas células de un individuo, cargarlas con
material de un tumor y usarlas como una
vacuna para amplificar las defensas.
Dos líneas de ataque
Ante la invasión de un virus, una bacteria o un parásito, el sistema de defensa
tiene dos líneas de ataque. La primera,
que actúa en forma casi inmediata, es la
que se conoce como inmunidad innata,
compuesta por diferentes tipos de células, como neutrófilos y macrófagos, entre
otros, que reconocen al patógeno y tratan
de eliminarlo. Si bien en muchos casos esa
acción es suficiente, cuando la infección
es grande es necesaria la segunda línea de
defensa, la inmunidad adaptativa, que tarda entre 7 y 10 días en “armarse”. En este
caso, entran en acción las células dendríticas, que les avisan a los linfocitos que es
hora de actuar.
Durante muchos años se creyó que la inmunidad innata era inespecífica, y que la
única defensa específica era la adaptativa,
es decir, la efectuada por los linfocitos.
Sin embargo, los galardonados con la
otra mitad del Nobel derrotaron ese paradigma a través de sus estudios con la
mosca Drosophila. En efecto, vieron que
las células de la inmunidad innata tienen
receptores que le dan especificidad: se
llaman receptores de reconocimiento de
patrones, y entre ellos se encuentran unos
receptores denominados Toll.
Cuando Jules Hoffmann infectaba las
moscas con algún patógeno, las mutantes
que carecían de receptores Toll morían sin
remedio porque no podían producir una
defensa efectiva.
“Las células dendríticas tienen muchos
receptores Toll, que detectan al organismo
extraño, y así las dendríticas pueden llevar
esa información a los linfocitos T. Ese es el
punto de contacto entre la inmunidad innata y la adaptativa, y es el denominador
común entre los ganadores del Nobel”,
concluye Rabinovich.
Física: un sacudón a la cosmología
Ellos ahora saben lo que sienten las estrellas. Son los cosmólogos estadounidenses Saul Perlmutter, Adam Riess y
Brian Schmidt, que fueron premiados
con el Nobel de Física 2011 por “el descubrimiento de la expansión acelerada
del Universo”, según el comunicado oficial de la Agencia sueca.
El logro al que arribaron desde dos grupos
diferentes de trabajo sacudió los cimientos
de la cosmología en 1998, cuando ambos
equipos presentaron sus resultados. Incluso
ellos mismos llegaron a creer que estaban
equivocados. En realidad, los científicos estaban tratando de medir la desaceleración
25
remios
Dan Shechtman
de la expansión del Universo desde su nacimiento explosivo, el Big Bang, hace unos
14 mil millones de años; y hallaron resultados que no eran los esperados.
Los más refinados telescopios desde la
Tierra y el espacio, junto con poderosas
computadoras apuntaron a una clase especial de supernovas, las tipo 1a. “Se trata
de una explosión de una estrella compacta
y pesada como el Sol pero más pequeña
que la Tierra y que puede emitir tanta luz
como una galaxia entera”, indica el informe sueco. Ambos equipos hallaron que “la
luz era más débil de lo esperado –se trataba de una señal de que la expansión del
Universo se estaba acelerando–”, agrega el
informe de prensa. Cuando establecieron
la distancia de las supernovas y la velocidad en que se estaban moviendo lejos de
nosotros, arribaron a la sorprendente conclusión de que, en vez de lentificarse, la
expansión se estaba acelerando.
“La observación en cuestión consistió en
medir el corrimiento al rojo y la luminosidad de un número elevado (unos noventa)
de objetos que están entre los más lejanos
alguna vez observados. Por lo tanto, la
observación en sí es un alarde de ingenio.
La importancia es que el resultado ha sido
totalmente inesperado. Este resultado, por
otro lado, está avalado por la pericia con
la que se ejecutó la observación, por el
cuidado que se puso en controlar posibles
fuentes de error, y por el hecho de que el
mismo resultado fuese alcanzado por dos
equipos trabajando de manera completamente independiente”, remarca Esteban
Calzetta, profesor en el Departamento de
Física de la FCEyN-UBA.
26
Las investigaciones fueron realizadas,
por un lado, por el equipo liderado
por Perlmutter, de la Universidad de
California en Berkeley. Por el otro lado,
Schmidt, de la Universidad Nacional de
Australia, en Weston Creek, junto con
Riess, de la Universidad Johns Hopkins,
de Baltimore, Estados Unidos.
oscura sigue siendo un enigma (quizás el
más grande en la física de hoy). Lo que
se sabe es que la energía oscura constituye
las tres cuartas partes del Universo. Por lo
tanto los resultados de los Nobel de Física
2011 han ayudado a dar a conocer un universo que, en gran medida, es desconocido
para la ciencia”.
Oscura y enigmática
En este sentido, Calzetta remarca: “No
cabe duda de que las observaciones en sí
han sido un alarde de virtuosismo y que la
interpretación del resultado como evidencia de la existencia de la ‘energía oscura’
es, hoy por hoy, la más simple y consistente”. Sin embargo, el científico advierte:
“Queda abierta la cuestión de integrar esta
‘energía oscura’ en el esquema de la física
de partículas elementales. Si la ‘energía oscura’ es efectivamente la constante cosmológica propuesta (y luego repudiada) por
Einstein, de alguna manera es un anexo
que puede incorporarse con modificaciones del esquema conocido que son ad hoc,
pero no sustanciales. Si es algo más complejo, la cuestión de la integración con la
física de partículas deviene más urgente.
Al día de hoy, los resultados observacionales son consistentes con una constante
cosmológica, pero no son concluyentes”.
Estos aportes significaron un verdadero
cambio en el conocimiento científico, según explica Calzetta, que también es investigador principal del CONICET: “Si bien,
desde principios del siglo XX, sabemos
que el Universo se expande, la idea generalmente aceptada era que la atracción mutua de la materia en el Universo actuaba
en el sentido de desacelerar dicha expansión. Si el resultado de las observaciones
de Perlmutter, Schmidt y Riess se interpreta (como lo hizo el Comité Nobel) en el
sentido de una aceleración del Universo,
nos encontramos ante el descubrimiento
de una forma de materia sin análogo en
nada que conozcamos hasta hoy, mucho
más exótica incluso que la ‘materia oscura’,
cuya identificación en términos de física
terrestre ya es un dolor de cabeza”.
Y a renglón seguido, Calzetta agrega: “De
hecho, una definición satisfactoria de materia oscura sería: toda forma de materia
para la que hoy no contamos con una
identificación positiva en términos de
partículas elementales, observadas en aceleradores terrestres”.
Según el informe de la Academia Sueca, la
aceleración se cree que es impulsada por
la energía oscura, “pero qué es la energía
Química: la ruptura de un paradigma
cristalizado
Se asomó al pasillo desde su oficina en el
National Institute of Standards and Technology (NIST) de los Estados Unidos
deseando encontrar a alguien con quien
compartir lo que acababa de descubrir.
Pero el corredor estaba vacío. Era la mañana del 8 de abril de 1982.
Adam G. Riess
Brian P. Schmidt
Saul Perlmutter
Dan Shechtman volvió entonces al microscopio electrónico donde hacía un
instante había observado un misterioso
patrón de puntos luminosos cuando analizaba con rayos X una aleación de aluminio
y magnesio.
Pero los átomos observados por Shechtman
no se disponían de forma regular, sino que
proponían formas extrañas. “Son arreglos
ordenados pero no son periódicos”, señala
la doctora Sara Aldabe-Bilmes, investigadora del CONICET en el Departamento
de Química Inorgánica, Analítica y Química Física (DQIAQF) de la FCEyN-UBA.
“Si uno se ‘traslada’ por un cristal, siempre
encuentra la misma figura. En cambio, en
un cuasicristal se pueden encontrar figuras
distintas”, ilustra.
cuentra ningún tipo de simetría en la disposición de sus átomos, como por ejemplo
el vidrio, y en ese camino se topó con este
hallazgo”, revela Bilmes.
La cristalografía de rayos X, técnica que
se utiliza para dilucidar la disposición
de los átomos en un material y que, en
1953, permitió esclarecer la estructura
del ADN, ahora planteaba un enigma.
Porque lo que Shechtman estaba viendo
contradecía lo que hasta entonces se sabía acerca de la materia sólida. En otras
palabras, para los químicos de la época
era algo imposible.
De hecho, cuando Shechtman envió el
paper con los resultados de su trabajo al
Journal of Applied Physics, los editores de
la revista científica se negaron a publicarlo. Incluso, la obstinada defensa de su hallazgo lo hizo objeto de burlas –se cuenta
que sus colegas le regalaron un libro de
cristalografía básica– y, luego, recibió una
“invitación” a abandonar el NIST.
Mosaicos caprichosos
En un cristal, los átomos están ordenados
siguiendo un patrón repetido. Así, si se
conoce una parte de su estructura, se puede dar por hecho que se lo conoce todo.
A su vez, dependiendo de su composición
química, los cristales pueden presentar
diferentes simetrías. Por ejemplo, en un
cristal de cloruro de sodio (sal de mesa),
los átomos de sodio y de cloro se disponen en el espacio dando la imagen de un
cubo (los átomos están en los vértices de
ese cubo imaginario).
“Ímaginate que querés llenar el suelo con
baldosas. Las baldosas cuadradas encajan
muy bien y toda la superficie mantiene
el mismo patrón. Lo mismo ocurre con
baldosas triangulares, rectangulares o
hexagonales. En cambio, si se usan baldosas en forma de pentágono, siempre van
a quedar espacios sin cubrir, que hay que
llenar con baldosas de otras formas. En
este caso, la estructura que se obtiene es
ordenada, pero no tiene una periodicidad
total como la de los cristales”, ejemplifica
el doctor Galo Soler-Illia, investigador del
CONICET en el DQIAQF.
En su laboratorio del NIST, Shechtman
fundió una aleación de aluminio y magnesio para luego enfriarla muy rápidamente. Esperaba que el cambio brusco de
temperatura desordenara los átomos suficientemente como para obtener el cristal
amorfo deseado. Pero lo que los rayos X
delataban no tenía nada que ver con el
desorden sino, más bien, con un orden
que no figuraba en las Tablas Internacionales de Cristalografía de la época.
El saber convencional de aquel entonces
afirmaba que el hallazgo de Shechtman
contradecía las leyes de la naturaleza. Sin
embargo, en el año 2009, un equipo de
científicos descubrió un cuasicristal natural en muestras de minerales tomadas de
un río de Rusia.
Propiedades y aplicaciones
Muchas veces, los resultados de una
investigación son el producto de un
proceso riguroso, pero en incontables
oportunidades, dichos descubrimientos
son producto de la intervención de la casualidad. Claro que esa oportunidad que
brinda el azar puede perderse si no hay
una mente atenta para aprovecharla.
Desde su descubrimiento en 1982, se han
creado cientos de cuasicristales en laboratorios de todo el mundo. Y muchos de
ellos han sido patentados. Es que sus cualidades particulares los hacen muy atractivos desde el punto de vista tecnológico.
Por ejemplo, su dureza, su resistencia a la
corrosión, su baja conductividad térmica
y su anti-adherencia los hace ideales para
recubrir utensilios de cocina.
“Shechtman trabajaba con aleaciones metálicas tratando de obtener sólidos amorfos,
es decir, materiales en los cuales no se en-
La lista de probables aplicaciones es larga,
como fue larga la espera de Shechtman
para ser reconocido.
Hallazgo fortuito
27
Física
15 al 17 de mayo
Computación
7 al 10 de agosto
12 al 15 de junio
Química
Ciencias de la Tierra
Matemática
Biología
24 al 26 de abril
4 al 6 de septiembre
25 al 27 de septiembre
Las actividades se realizan en el Pabellón I y II de Ciudad Universitaria.
Programa Semanas de las Ciencias | EPC
Área de Popularización de la Ciencia y Articulación con la Enseñanza Media - SEGB
Oficina de diseño (SEGB - FCEyN) | 2012
Tel: 4576-3337/3399 int. 37 | [email protected] | exactas.uba.ar/semanas
itacora
Tras los pasos
de la vinchuca
Desde hace más de 30 años, Ricardo Gürtler, director del
Laboratorio de Eco-epidemiología de la FCEyN, estudia los
insectos transmisores de enfermedades como el mal de Chagas
y el dengue. Conocerlos a ellos, para combatirlos, lo llevó a
transitar caminos impensados.
Cecilia Draghi | [email protected]
Fotos: Gentileza Ricardo Gürtler
A
veces, el primer encuentro pasa desa­
percibido. Pero en el caso de Ricardo
Gürtler, director del Laboratorio de Ecoepidemiología de la Facultad, ese encuentro significó un impacto que, aun pasados
más de treinta años, lo marcó de por vida.
Fue en diciembre de 1979, en el poblado de Guanaco Muerto, en el noroeste de
Córdoba, donde haría su debut en el trabajo de campo como parte de una investigación tras los pasos de la vinchuca, transmisora del mal de Chagas. Era estudiante
de biología, habituado a vivir en la ciudad
y, aunque le encantaba la especialización
marina, llevaba todas las expectativas de
poner a prueba en el terreno aquello que
había escuchado en clase.
Aridez y polvo envolvían el paisaje, junto
con un calor extenuante. “Después de tres
29
horas de viajar en rastrojero, llegamos a una casa y pedí agua.
Me dijeron: ‘Ahí hay’. Y no la encontré. Es que buscaba una canilla o un tanque. Lo que tenían era una represa excavada en
la tierra, algo parecido a agua estancada o barro. Eso es lo que
consumían no solo los animales, sino la gente”, relata hoy, sin
salir del estupor, sentado en su laboratorio del Departamento de
Ecología, Genética y Evolución. Enseguida agrega: “A la pobreza
de la vivienda y que la gente vestía prácticamente harapos, se
sumó el hecho de que, cuando descolgamos un saco de uno de los
moradores, salieron cantidades industriales de vinchucas llenas
de sangre. Estas dos cosas, junto con el entorno natural y social,
me impactaron mucho”.
Allí estaba este insecto oscuro, que suele esconderse en las grietas
de las paredes de barro de los ranchos y en los techos de paja,
donde permanece todo el día escapando de la luz. De noche sale
a buscar comida: sangre caliente. Justamente, de qué animales se
alimenta era una de los interrogantes que llevó al grupo de estudio a ese paraje. “Este tema me sigue interesando y, vinculado a
otros aspectos, es una de mis líneas de investigación. Básicamente, la vinchuca elige a quién va a picar para alimentarse y de ese
contacto surge la transmisión del parásito”, describe. Una de las
presas conocidas es el hombre. En ese entonces, los moradores de
esos hogares estaban literalmente rodeados. “Hace 30 ó 40 años,
las casas podían albergar hasta 3.000 vinchucas, y a veces más.
Hoy están más combatidas”, compara.
Este insecto era una de las pocas cosas que más abundaban en la
pobreza rural extrema, y al que querían conocer en detalle. Para
eso, ayer como hoy, los investigadores conviven durante dos o tres
semanas con los lugareños y colaboran en allanar algunas de las
dificultades, entre las que el Chagas es uno más de la lista, junto
con los males generados por la falta de agua potable. “Trabajamos
con personas expuestas a insectos que transmiten una enfermedad, –señala– que forma parte de una realidad socio-política y
económica, que es la base del problema. La vinchuca y el Chagas,
así como otras dolencias transmisibles, son indisolubles de esos
componentes sociales”.
Su propuesta es de integración, muy alejada de la postura conocida como safari research. “Este tipo de investigación fue común en el Tercer Mundo durante el
30
período colonial y aún después, cuando llegaban los científicos de los países desarrollados. Literalmente salían de “cacería”
de plantas, insectos, y hasta muestras de sangre de animales y
personas”, comenta. Otra forma parecida de actuar (con poco
contacto con las comunidades y escape rápido) ha sido local.
“Era bastante común que la gente de salud pública llegara al
poblado como un grupo comando tipo SWAT, realizara una intervención en forma vertical casi sin explicaciones, y enseguida
se fuera”, remarca. La situación era aún más grave si se trataba
de pueblos originarios, según menciona. “Fue muy común sacar
muestras de sangre sin consentimiento informado del poblador,
sin decirle muy claramente el porqué ni cómo se beneficiaría o
eventualmente se podría perjudicar, ni devolver los resultados
de los estudios ni ocuparse de los tratamientos. Ocurre cada vez
menos en la Argentina ya que hay más conciencia de los aspectos éticos relacionados con la investigación y las intervenciones
en salud”, puntualiza.
Luces y sombras
El equipo de Gürtler no solo está integrado por numerosos científicos, sino que los lugareños resultan una pieza clave. Un ejemplo es la tarea realizada en cinco comunidades rurales alrededor
de Amamá, en Santiago del Estero. ¿Qué hicieron? Convocaron
a los pobladores a tomar parte activa en esta lucha, los pusieron
al tanto de los estudios en marcha y les enseñaron a usar insecticidas cuando encontraban vinchucas en sus viviendas. “Antes del
rociado promovimos que revocaran las paredes para eliminar las
grietas donde se aloja el insecto y, luego, usamos herramientas
científicas para evaluar el impacto de estas intervenciones y determinar si constituían un progreso o no”, ejemplifica.
Los investigadores no solo fueron casa por casa, sino que preguntaron qué pensaban los lugareños sobre el tema. En otras
palabras, la filosofía consiste en ir y compartir el problema, porque de lo contrario es probable volver con la sensación de nunca
haber estado. ¿El resultado? “En un trabajo a largo plazo, de
acción conjunta, logramos interrumpir la transmisión del mal
de Chagas en uno de los municipios de más alto riesgo de la
Argentina: el Departamento Mariano Moreno, en Santiago del
Estero”, subraya.
El trabajo compartido es el pasaporte para que una visita de fumigación no sea vivida como una intromisión en la privacidad.
“Durante una hora, dos o tres personas de los programas de control de vectores y nosotros revisamos desde abajo de la cama
hasta el techo para ver si hay vinchucas y cuántas son. Se usan
insecticidas de baja letalidad para obligar al insecto a salir de su
refugio”, grafica.
Los pobladores abren sus puertas, no solo una vez. “En Pampa del Indio, en la antesala de El Impenetrable chaqueño, en
tres años y medio habremos visitado y revisado cada casa unas
catorce veces en la zona de control intensivo”, cuantifica. Uno
de los objetivos es identificar el origen de los insectos que reinfestan las viviendas luego de la aplicación de insecticidas, y
para ello usan una serie de métodos. “Mediante este monitoreo intenso –destaca– descubrimos la existencia de un nuevo
foco de resistencia a insecticidas en las vinchucas del Chaco”.
Bien temprano, entre las siete y las ocho según sea verano o
invierno, los investigadores visitan las viviendas. “Los criollos,
con quienes he tenido mayor contacto, en su gran mayoría
son muy hospitalarios. Esta gente está acostumbrada a vivir en
condiciones muy duras, de mucho sacrificio, y suele cooperar
activamente cuando ve que la cosa va en serio y los puede
ayudar”, dice.
Allí, tampoco es raro que los científicos sean objeto de estudio
de los lugareños. Todo forastero es por definición un bicho
raro. “El criollo es muy pícaro (especialmente el santiagueño),
y le gusta tomarnos el pelo y reírse de nuestra ignorancia sobre
las cosas del monte. Te dicen cosas para probarte y después
comentan entre ellos, a las risas”, sonríe.
Estos investigadores investigados ya no son de los pocos que
visitan estos lugares olvidados por la mayoría. “Cuando llegamos a Amamá en 1982, había candiles, ni siquiera un ‘sol
de noche’. En invierno, a las seis de la tarde ya era oscuro,
caminabas y a lo lejos solo veías una lucecita o brasas de
un fogón y se oían los sonidos del monte. Era bastante movilizante para cualquiera acostumbrado a la luz eléctrica y
a los ruidos de la ciudad”. Pasaron los años y ya avanzado
este siglo llegó la electricidad a algunas zonas rurales. “En el
2005, en el patio de una casa donde vendían bebidas, habían
puesto Direct TV. Todas las tardes se congregaban unas 50 a
70 personas que veían la televisión allí por primera vez. ¿Qué
miraban? Una telenovela venezolana o brasileña, fascinados,
entre chistes y comentarios sobre lo que ocurría en la pantalla, un acontecimiento social y cultural de magnitud. Era
extraño ver eso y recordar cómo eran las cosas allí mismo
pocos años antes”, afirma.
Platos preferidos
Desde hace 30 años, algunas preguntas guían sus investigaciones:
de qué se alimenta la vinchuca, qué factores aumentan el riesgo
de transmisión del Chagas y cómo intervenir. Se sabe que, sobre
su presa, el insecto despliega su trompa, inserta los estiletes bucales en la piel así como saliva anticoagulante y comienza a chupar.
Si no es perturbada, puede ingerir varias veces su propio peso.
Al hincharse su tubo digestivo se ve obligada a defecar y, si está
infectada del parásito Trypanosoma cruzi, lo puede dejar sobre
la picadura. Cuando la víctima se rasca, facilita que el parásito
ingrese al organismo.
“De esos trabajos iniciales surgió que las vinchucas no solo se
alimentan de las personas, sino de los animales domésticos, en
especial perros y gallinas”, enfatiza, sin dejar de señalar: “Entre un
perro, una gallina o un gato, experimentalmente demostramos
que las vinchucas prefieren al perro. Aún no sabemos por qué.
También mostramos que esta preferencia se puede explotar para
que los perros provistos de collares impregnados con insecticidas
terminen convirtiéndose en una ‘trampa letal’ para las vinchucas
que se alimenten de ellos”.
El interrogante inicial sigue reuniendo nuevas aristas y, aún hoy,
es uno de sus temas de estudio integrado al control de las vinchucas. Allá lejos quedó la biología marina, aquí, más cerca, el
encuentro de la “otra” Argentina y su gente.
31
nformática
Buscadores de Internet
Sé lo que quiero y
lo quiero ya
¿Cómo hace Google para obtener de manera tan rápida y
eficiente los resultados de una búsqueda en Internet? ¿Son
iguales todas las búsquedas? Mucho depende de aquello que
se desea encontrar, el lugar o contexto para la búsqueda, las
herramientas que se tienen a disposición para la tarea y los
objetivos fijados para la misma.
Fernando Asteasuain
[email protected]
32
T
odo parte de una búsqueda, de la necesidad de encontrar algo. En algunas
ocasiones es algo bien específico y concreto. En otras simplemente se desea conocer más sobre algún tópico en particular.
Cada búsqueda es distinta, con diferentes
características, urgencias y necesidades.
No es lo mismo buscar las llaves de casa
cuando apremia el tiempo para no llegar
tarde al trabajo, que buscar información
sobre posibles destinos turísticos para las
próximas vacaciones. En cada caso el contexto cambia, así como también cambian
las estrategias usadas para lograr con éxito
lo emprendido. Y como es de esperar, la
situación es similar en el mundo virtual
que representa Internet. Las búsquedas
en Internet empezaron a tener relevancia
a medida que Internet crecía, no solo en
contenidos, sino también porque crecían
las demandas por parte de los usuarios. Y poder resolver este problema fue
clave para que Internet pudiera despegar
y convertirse en esta gigantesca fuente de
información que constituye en la actualidad. De nada sirve un lugar que lo tiene
todo, si no podemos encontrar aquello
que necesitamos.
A medida que Internet evolucionaba,
empezaron a cobrar relevancia un tipo especial de sitios web: los buscadores. Son
sitios dedicados principalmente a buscar
información por toda la Red. Varias interrogantes surgen en este sentido: ¿qué hay
detrás de una búsqueda en la web?, ¿qué
significa buscar en la web?, ¿cuáles son los
resultados esperados? Como se mencionó anteriormente, hay distintos tipos de
búsquedas: buscar restaurantes naturistas
que estén abiertos los domingos a la noche, ver cuántos goles hizo Messi el último domingo, averiguar cuándo se estrenó
Volver al Futuro, chequear los horarios y
funciones de los cines o teatros, consultar cómo tramitar el nuevo pasaporte en
la modalidad express, o indagar sobre la
mejor receta hogareña para hacer un pollo
al curry. Ante cada consulta, el buscador
debe rastrear toda
la red en pos de encontrar aquellos resultados
relevantes a la búsqueda y ofrecerlos al
usuario. A todo esto, se suma un nuevo
desafío: ¿qué resultados mostrar primero
al usuario?. Este último planteo no es para
nada menor, ya que en gran medida el éxito de las búsquedas en Internet depende
de este factor. Una posible opción para el
buscador es mostrar en primer lugar los
resultados que encontró primero: recorrer
todos los sitios e ir armando una lista de
resultados con los sitios que sean relevantes a la búsqueda. En el primer lugar de
la lista figuraría el primer sitio que apareció, luego el segundo, y así sucesivamente.
Pero una rápida mirada crítica sobre esta
manera de proceder alerta sobre un posible problema. ¿Qué ocurre si el sitio más
relevante para la búsqueda se encuentra en
los últimos lugares de la lista de resultados?
En una lista de pequeña longitud esto no
sería un problema, ya que recorrerla toda
no implica en principio invertir mucho
tiempo. Pero en cambio, si se trata de una
lista con millones de resultados, la situación cambia drásticamente. Rara vez los
usuarios buscan más allá de los seis ó siete
primeros sitios en esa lista de resultados,
por lo que los buscadores para tener éxito
no solo deben encontrar los sitios relevantes, sino también deben ubicarlos en los
primeros lugares al mostrar los resultados.
Dado esto, parece sencillo solucionar el
problema: los buscadores deben poner
primero en la lista los sitios más relevantes, y relegar a los últimos lugares aquellos
que menos relación tienen con la búsqueda. Pero si bien es sencilla la enunciación
de la solución, su puesta en práctica no es
tan trivial: ¿cómo determina un buscador
cuándo un sitio es más relevante que otro?
En otras palabras, el buscador debe intuir
lo que el usuario quiere encontrar, y decidir en base a esa intuición. ¡Y debe hacerlo
rápido! No solo ordenar por relevancia los
resultados, sino toda la búsqueda. En síntesis, un buscador debe ser eficiente para
encontrar de manera rápida los resultados y,
a su vez, inteligente para ordenarlos. Y entre todos los buscadores, hubo uno que se
destacó sobre el resto: Google. Las razones
son sencillas, fue el que mejor resolvió estos dos puntos fundamentales.
Búsquedas rápidas
Este punto fue abordado desde muchos
lugares. Primero, hay distintas maneras o
algoritmos para realizar búsquedas, siendo
33
nformática
algunas más rápidas que otras. Cuando
una persona busca una ficha para ubicar en
un rompecabezas, bien podría buscar una
por una todas las fichas hasta encontrar la
deseada. Este enfoque se conoce computacionalmente como “fuerza bruta”. Otro
enfoque un poco más eficiente podría ser
concentrarse únicamente en aquellas cuya
forma/color encaja mejor, y así poder
encontrar más rápido la pieza buscada.
Google trabajó, y trabaja con esmero para
poder desarrollar los algoritmos más eficientes posibles. Segundo, mucho poder de
cómputo. Es decir, atacar el problema con
artillería pesada: computadoras especializadas, construidas especialmente para trabajar lo más rápido que se pueda. Tercero,
acceso rápido a la información. Una manera
de ver esto es que Google tiene muchas
búsquedas “pre-cocidas”, listas para ser enviadas al usuario. Por ejemplo, cuando un
usuario busca “Messi”, Google, antes de
realizar la búsqueda desde cero, se fija si
no resolvió “hace poco” una consulta parecida. La clave está en dejar cada búsqueda
nueva guardada un tiempo, para intentar
ahorrarnos tiempo la próxima vez que se
busque. Esta técnica se conoce como caché
en memoria de consultas. Cuarto y último,
un concepto fundamental, el cual sostiene
a todos los puntos anteriores: índices. La
idea de usar índices para las búsquedas no
es para nada novedosa. Basta con pensar
en cualquier libro. Generalmente al principio, cada libro cuenta con un índice,
el cual dice, por ejemplo, en qué página
comienza cada capítulo. De esta forma, si
una persona está interesada en leer el capítulo cuatro de una novela, se dirige al
índice para acceder de manera directa a la
página inicial del capítulo. De no contar
con el índice, la persona hubiera tenido
que recorrer el libro hasta encontrar el
comienzo del capítulo. En determinadas
situaciones es sumamente útil contar con
más de un índice. Por ejemplo, es de poca
utilidad el índice de comienzo de cada
capítulo cuando se desea buscar una ilustración en particular dentro del libro. En
este caso, no queda otra opción más que
34
buscar por todo el libro
hasta encontrarla. Una
posible manera de alivianar
esta tarea sería contar también
con un índice de figuras, donde
establezca la página de cada figura.
Otro tipo valioso de índices suele ser
el que especifica para un determinado
término, los lugares dentro del libro donde está mencionado el mismo. Por ejemplo, poder buscar en un libro de cine,
todas las páginas donde esté mencionado
“Alfred Hitchcock”.
Google incorpora para sus procesos de
búsquedas un avanzado manejo de índices
para poder acceder de manera directa a los
resultados deseados, y lograr así agilizar y
reducir notablemente el tiempo empleado
para lograr sus objetivos. De manera periódica, Google modifica su índice, para
incorporar páginas nuevas y actualizar los
contenidos de Internet. El encargado de
este procedimiento es un programa conocido como GoogleBot.
Ordenar por relevancia
Una vez resuelta la búsqueda, el paso siguiente consiste en ordenar la lista con los
resultados de manera tal que aquellos más
relevantes se encuentren ubicados en las
primeras posiciones. El problema entonces
es determinar cómo asignar a cada resultado su relevancia y confiabilidad para la
consulta dada. Una vez determinado este
factor, solo resta ordenar la lista de mayor a
menor. Y es este punto uno de los factores
decisivos para el éxito de Google. El 9 de
enero de 1999, Larry Page y Sergey Brin,
creadores de Google, dieron a conocer su
ahora famoso algoritmo denominado PageRank, cuyo objetivo es asignar un valor
numérico a cada resultado, estableciendo qué tan relevante es para la consulta.
Siendo ambos de familias con tradición
académica, decidieron imitar un sistema
conocido en el mundo de la publicación
de trabajos de investigación: los trabajos
más relevantes son aquellos que mayor impacto tienen, es decir, los que son citados
o referenciados más veces. En particular, se
trata del modelo Science Citation Index
(SCI) creado por Eugene Garfield durante
la década del ‘50.
Aplicar este modelo del mundo científico
al mundo de Internet fue casi directo: las
páginas más importantes son aquellas que
son más “citadas”. ¿Cuándo una página cita
a otra? Para Google, una página A “cita” a
una página B cuando la primera tiene un
enlace o vínculo a la segunda. Adicionalmente, se considera un segundo factor:
cuanto más citada sea una página, mayor
valor tienen las citas que ésta haga. Es decir, la cita de una página muy citada vale
más que la cita de una página escasamente citada. De esta manera, Google decide
qué resultados mostrar primero. PageRank
es actualizado periódicamente: durante el
2011 tuvieron lugar dos actualizaciones,
una en enero y la más reciente, en junio.
Mejoras
Google fue añadiendo mejoras a su algoritmo de búsquedas, para evitar que los resultados puedan manipularse. Una manera
de lograr esto es, por ejemplo, crear muchos enlaces o citas a la página que se desea
ubicar en los primeros lugares. Para esto se
puede escribir un programa que llene de
manera automática blogs, páginas de visitas, etcétera, con la sola finalidad de poner
enlaces a la página en cuestión. Esto se conoce como “IndexSpamming”, es decir, el
viejo y conocido spam, pero ahora utilizado
para llenar de enlaces artificiales la web para
poder posicionar mejor a una página. La
última versión del algoritmo de búsqueda
lanzada por la empresa, denominada Google
Panda, busca afanosamente luchar contra
el spam de índices, y también incluye otras
mejoras. Por ejemplo, busca priorizar contenido original, restándole importancia a
aquellas páginas que solo sean duplicados o
copias de otra. También incorpora nociones
lingüísticas, destacando páginas con buena ortografía, y con frases y oraciones bien
construidas. Y penaliza a aquellas páginas o
sitios con exceso de publicidad. Finalmente,
también las redes sociales impactarán en las
búsquedas: es decir, se tendrán en cuenta
resultados producidos desde redes como
Twitter, Google Plus, o Youtube.
Google instantáneo
Una de las últimas funcionalidades con
que Google ha sorprendido a sus usuarios
se denomina Google Instant. Bajo esta modalidad Google muestra los resultados a
medida que el usuario va escribiendo en la
barra de búsqueda. Para esto, Google calcula a través de un algoritmo cuáles son
los resultados más esperados a partir de lo
que el usuario está ingresando. Así, parece
ante los ojos del usuario que los resultados
aparecen de manera instantánea, casi por
arte de magia. El principio detrás de Google
Instant es que los seres humanos en general
escriben lento, pero leen con rapidez. Según los estudios de Google pulsar una tecla
puede llevar 300 milisegundos, mientras
que en solo 30 milisegundos el ojo humano es capaz de mover su atención a distintos lugares de la página. Esto indica que el
usuario puede entonces analizar los resultados mientras escribe una consulta. Google
Instant reduce entre dos y cinco segundos
el tiempo destinado a cada consulta, ya que
en algunos casos no es necesario terminar
de escribirla o, incluso, apretar la tecla Enter
para iniciar la búsqueda.
Quizás quiso decir
Otra de las virtudes de Google es, también, intuir cuándo el usuario se equivoca en una búsqueda, principalmente
por errores sintácticos. Google logra
esto “aprendiendo” de los errores de los
usuarios. En general, cuando un usuario busca una palabra con errores no
hace clic en ningún resultado porque
los resultados no son relevantes. Luego,
al darse cuenta del error, busca nuevamente, ahora con la palabra corregida.
En este caso, Google “aprende” que las
palabras están relacionadas, y que la segunda versión sea probablemente una
corrección de la primera. Así, al próximo usuario que cometa el mismo error,
le sugerirá la palabra correcta. Con las
miles y miles de consultas por segundo que se hacen a nivel global, Google
es un rápido aprendiz. También puede
aprender por ejemplo, si al buscar “orasión” un usuario hizo clic en alguna página que menciona la palabra “oración”.
La cantidad de resultados también es un
punto a tener en cuenta a la hora de sugerir cambios. Por ejemplo, la búsqueda
“orasión” da unos 170.000 resultados,
que a priori no es un mal número. Sin
embargo, los resultados encontrados
para una palabra relacionada y similar
como “oración” son muchos más, alrededor de 20.700.000 para ser precisos.
Una vez que Google tiene la suficiente
confianza en las correcciones, hace la
búsqueda directamente con la versión
corregida de la palabra. En estos casos
le avisa al usuario el cambio realizado.
Para el caso anterior, Google buscará
directamente “oración” y, al mostrar los
resultados indicará: Mostrando resultados para oración. Haga clic para buscar “orasión”. Es importante notar que
Google no tiene un corrector ortográfico, sino que se guía por cómo una palabra aparece escrita mayor cantidad de
veces en la web. Esto quiere decir que si,
de repente y por alguna razón, muchos
usuarios empiezan a escribir “oración”
con la letra s, Google empezará a sugerir esta versión de la palabra. Un claro
ejemplo de esto aconteció unos días
después del descenso de River, ocurrido
el día 26 de junio de 2011. Al hacer la
búsqueda “chau river”, Google sugería
la búsqueda “chau Riber”, ya que en numerosos sitios figuraba esta última frase, como una broma hacia los hinchas
de River, y por lo tanto, tenía muchos
más resultados que la búsqueda original
(para más información, ver el artículo
de Mariano Blejman en Página 12 del
día 29 de junio de 2011).
Entonces, ¿por qué buscar archivos en mi
computadora tarda tanto en comparación,
si es tanto menor el espacio de búsqueda?
Buscar archivos en una computadora es un
proceso notoriamente diferente. Primero
que nada, las computadoras de Google están especializadas en búsquedas, tanto en
hardware como en software. En la nuestra no hay resultados “pre-fabricados”, ni
discos optimizados, y todas las búsquedas
son casi un procedimiento manual, inspeccionando archivo por archivo.
La palabra clave para mejorar los tiempos
de búsqueda no es otra que índices. Tener
nuestros archivos “indexados” es un paso
importante en este sentido. Justamente
una de las opciones que tenemos al instalar sistemas operativos como Windows
es pedir que se utilicen índices para mantener nuestros archivos. Pero sin dudas,
la ayuda definitiva viene de aplicaciones
que podemos instalar, las cuales aprovechan al máximo el concepto de índices.
Dos de ellas son Windows Desktop Search
y Google Desktop.
En pocas palabras
Resumiendo, se puede afirmar que Google
combina diversos enfoques para constituir
un excelente buscador: un gigantesco poder de cómputo, algoritmos eficientes,
superlativa utilización de índices y una
eficaz manera de ordenar los resultados
más relevantes, junto a novedosas formas
de mejorar cada vez más los resultados
esperados de una búsqueda. El desafío
es simple: solo se trata de un programa,
frente a un usuario, intentando adivinar
qué es en realidad lo que quiere buscar, y
obteniendo los resultados en escasos milisegundos.
Agradecimientos: José Castaño, Esteban
Feuerstein, Cecilia Ruz, Diego Gavinowich
y Alexis Tcatch.
35
United States Department of Agriculture
alud
Bacterias resistentes a los antibióticos
Superbacterias
Los microbios se están adaptando a los antibióticos y ya
hay algunos que son resistentes a todos los antimicrobianos
conocidos. La situación es particularmente grave en nuestra
región. Se estima que, en la Argentina, estas superbacterias
matan a unas 29.000 personas al año, lo cual las ubicaría en
la cuarta causa de mortalidad en nuestro país.
M
ientras la NASA escudriña el espacio para tratar de evitar que un
asteroide destruya nuestro planeta, y en
tanto discutimos acerca de los riesgos de
una explosión nuclear o del calentamiento
global, poco se debate sobre el peligro creciente de que la humanidad sucumba ante
un enemigo microscópico que, día a día
y silenciosamente, se hace cada vez más
fuerte: las bacterias.
Pobladores primigenios de nuestro mundo, estos microorganismos evolucionaron
durante miles de millones de años y, en
ese proceso, adquirieron mecanismos muy
eficientes de adaptación al ambiente.
Gabriel Stekolschik
[email protected]
36
Por un lado, en condiciones adecuadas
pueden reproducirse a gran velocidad (en
tan solo 20 minutos, una bacteria puede
originar dos células hijas). “En los procesos infecciosos, las bacterias se encuentran
en activa división y se pueden contar hasta
mil millones por mililitro”, ilustra la doctora Carmen Sánchez Rivas, investigadora del CONICET en el Departamento
de Química Biológica de la Facultad de
Ciencias Exactas y Naturales de la UBA.
Por otro lado, a lo largo de la evolución,
desarrollaron varios mecanismos para
transferir genes entre ellas.
Combinadas, ambas características –velocidad de división y transferencia de genes–
son una bomba de tiempo para la humanidad. Porque, en un medio adverso –como
puede ser la presencia de un antibiótico– su
gran velocidad de reproducción hace muy
probable la aparición de una mutación genética que les otorgue resistencia a ese antibiótico. A su vez, ese rápido incremento
de la población bacteriana aumenta la probabilidad de encuentro entre ellas y, por lo
tanto, de que intercambien los genes de resistencia hasta que, finalmente, todas ellas
se hagan inmunes al medicamento antimicrobiano. “Bastará con que no se haya efectuado una destrucción total y rápida de las
bacterias patógenas o que se haya utilizado
previamente en muchas ocasiones un mismo antibiótico para que aparezcan individuos resistentes”, explica Sánchez Rivas.
El descubrimiento de los antibióticos a
comienzos del siglo XX llevó a la humanidad a ilusionarse con que se acabarían
las muertes por infecciones. Pero, con los
años, el alto éxito adaptativo de las bacterias ha resultado en la aparición –primero– de cepas multirresistentes y –después–
de cepas panresistentes, es decir, inmunes
a todos los antibióticos conocidos.
“Una bacteria multirresistente, que es sensible a un solo antibiótico, en presencia de
ese antibiótico se puede hacer panresistente
en cuestión de horas”, ejemplifica Centrón.
La situación es tan grave que el 7 de abril
de 2011 (día mundial de la salud) bajo el
lema “si no actuamos hoy, no habrá cura
mañana”, la Organización Mundial de la
Salud declaró que “son necesarias actuaciones urgentes y unificadas para evitar que regresemos a la era pre-antibiótica, en la que
muchas infecciones comunes no tendrán
cura y volverán a matar con toda su furia”.
Hospitales patógenos
“Nuestro país es uno de los que tiene mayor frecuencia de resistencia antibiótica y
ya hay cepas panresistentes circulando en
los hospitales”, advierte la doctora Daniela Centrón, directora del Laboratorio de
Investigaciones en Mecanismos de Resistencia a Antibióticos de la Facultad de
Medicina de la UBA.
Si bien no hay cifras oficiales, un trabajo
presentado recientemente en el Congreso
de la Sociedad Argentina de Infectología
le pone números al problema: “En base a
datos de estudios multicéntricos, del Programa Nacional de Vigilancia de Infecciones Hospitalarias, del INDEC y de la
Seguridad Social, se puede estimar que, en
nuestro país, mueren alrededor de 29.000
personas al año por infecciones hospitalarias, lo cual las ubicaría en el cuarto lugar
del ranking de causas de mortalidad en
Argentina”, consigna el médico Rodolfo
Quiros, Jefe de Infectología, Prevención y
Control de Infecciones del Hospital Universitario Austral.
Según Quiros, el control de las infecciones
hospitalarias requiere tan solo de cuatro medidas, ninguna de las cuales debe ser omitida: la higiene de manos de los profesionales
tratantes, el aislamiento de los pacientes
infectados, la limpieza correcta de todas las
áreas y el uso racional de los antibióticos, es
decir, determinar apropiadamente qué tipo
de antimicrobiano utilizar, en qué dosis y
durante cuánto tiempo. Pero, sobre todo,
evaluar si es necesario administrarlo. “Muchos procedimientos quirúrgicos no requieren de profilaxis antibiótica”, subraya la médica Liliana Clara, miembro de la Alianza
para el Uso Prudente de los Antibióticos y
del Comité de Control de Infecciones del
Hospital Italiano de Buenos Aires. “Hay
trabajos científicos que indican que no hay
que administrar antibióticos a los pacientes
desahuciados”, señala.
Es un secreto a voces que las instituciones
de salud tratan de dar el alta a sus pacientes lo antes posible para evitar que se infecten con una bacteria hospitalaria. “Podría
pensarse que, por ser el ámbito hospitalario un ecosistema pequeño, el control de
infecciones debería ser fácil. Sin embargo,
es muy difícil cambiar la conducta de los
médicos”, observa Quiros.
Multirresponsabilidad
“La mayoría de los catarros, tos y anginas
son virales y se curan solos. No requieren antibióticos”, recalca Liliana Clara.
Es que la prescripción indiscriminada de
antimicrobianos por parte de los médicos
es una de las causas principales de generación de resistencia en las bacterias. Pero
no es la única.
También la automedicación y los farmacéuticos que venden antibióticos sin receta
(algo impensable en lugares como Estados
Unidos, Canadá o Europa) son responsables del consumo masivo e innecesario de
estos medicamentos y, en consecuencia,
37
alud
http://genteconconciencia.es
ciones de salud para contar con los recursos
materiales y humanos necesarios. “Por ejemplo, hacen falta áreas físicas y enfermeros especializados en control de infecciones”.
de la aparición de cepas multirresistentes.
Asimismo, cuando un paciente interrumpe un tratamiento porque desaparecieron
sus síntomas está contribuyendo a la multirresistencia bacteriana.
Pero, aunque parezca extraño, los mayores
consumidores de antibióticos son los animales. Estas drogas se utilizan de manera
indiscriminada en la ganadería y en la avicultura para prevenir enfermedades y para
aumentar la producción.
Por otra parte, tanto los animales de cría
como los seres humanos eliminan –por
heces u orina– una parte de los antibióticos sin metabolizar, es decir, intactos. De
esta manera, llegan al medioambiente con
su poder antimicrobiano activo.
“Para hacer un estudio de reservorios ambientales de genes de resistencia fui hasta
Tierra del Fuego, hice 80 kilómetros por una
ruta por donde se calcula que pasan diez personas por año, me alejé de la ruta caminando
500 metros y tomé una muestra del agua de
un río en donde no hay nadie. Las bacterias
que encontré allí, que supuestamente no estuvieron en contacto con personas o con antibióticos, tenían una frecuencia muy alta de
mecanismos de resistencia”, ilustra Centrón.
“En verduras del Mercado Central encontré
bacterias multirresistentes con los mismos
mecanismos de resistencia que se encuentran
en los hospitales”, añade.
¿Futuro infeccioso?
En abril de 2011, el Senado argentino aprobó
y envió a la Cámara de Diputados un proyecto de ley para la vigilancia, el control y la prevención de las enfermedades hospitalarias en
todos los establecimientos sanitarios públicos
y privados del país. En su artículo 2º, define
a la infección hospitalaria como “un conjunto
heterogéneo de enfermedades infecciosas que
no están presentes clínicamente, ni en período de incubación, en los pacientes que ingresan a hospitales o a instituciones sanitarias
cerradas y se desarrolla luego de permanecer
48 horas en la institución”.
Asimismo, el proyecto establece la obligación para los establecimientos de salud públicos y privados de notificar “toda infección
hospitalaria diagnosticada y su evolución”.
Según Quiros, esto va a permitir tener un
registro de las infecciones hospitalarias, pero
–critica– no se explicitan las metas a alcanzar, ni se contempla cómo harán las institu-
Mientras –según Centrón– “cada vez hay
más emergencia de cepas panresistentes”,
las empresas farmacéuticas no invierten en
investigación y desarrollo de nuevos antibióticos porque “no es un área tan rentable como la de las drogas oncológicas o
cardiovasculares”, comenta Clara.
No obstante, los especialistas mantienen el
optimismo. “Es posible revertir la situación,
pues las cepas multirresistentes utilizan parte de su energía en mantener esas resistencias, con lo cual su velocidad de división es
menor. Es decir, en ausencia de antibióticos,
se ven favorecidas las cepas sensibles a los
antimicrobianos”, explica Sanchez Rivas.
“Comprobamos que, manteniendo durante seis meses las cuatro medidas de
control de infecciones, comienza a aparecer sensibilidad a todos los antibióticos en
la misma especie bacteriana que antes era
multirresistente”, confirma Quiros.
“Las bacterias pueden adaptarse con muchísima velocidad a cualquier medio –sostiene Centrón. Por eso, es fundamental
todo lo que se haga en relación al control
de infecciones y al uso racional de antibióticos. Son las únicas herramientas que
tenemos hoy en día. Porque, la verdad, las
bacterias se van a hacer resistentes a todos
los antibióticos. No hay antibiótico al cual
no adquieran resistencia”, concluye.
Historia de los genes. De los factores hereditarios a la
secuencia completa del genoma humano
En la actualidad, los medios hablan de genes con asombrosa naturalidad. Y no solo desde los espacios
dedicados a la ciencia. También se habla de ellos y de ADN en las noticias políticas, policiales y del
espectáculo. En este trabajo, que forma parte de la colección Estación Ciencia de Capital Intelectual,
nuestra Jefa de Redacción, Susana Gallardo, tiene por objetivo no solo demostrar lo que se sabe, sino
cómo se llegó a saber lo que se sabe.
pistemología
Primera parte
Las relaciones entre la historia
y la filosofía de la ciencia
Guillermo Boido / Olimpia Lombardi
V
istas “desde lejos”, desde el campo de la práctica científica,
historia de la ciencia y filosofía de la ciencia pueden (y suelen) ser confundidas o, al menos, consideradas dos disciplinas tan
cercanas que podrían ser abordadas por una misma persona. Sin
embargo, éste no es el caso: se trata de dos ámbitos de investigación diferentes, con sus especificidades temáticas y metodológicas. Y si hubo casos de filósofos-historiadores, como Thomas S.
Kuhn, ello no se debe a la identificación entre ambas disciplinas
sino a la amplitud intelectual de tales personajes, que les permitió
realizar aportes en ambas áreas.
Una vez que se admite que se trata de dos disciplinas diferentes,
la pregunta que surge de inmediato es la que se refiere a las relaciones entre historia de la ciencia y filosofía de la ciencia. Tal vez
para sorpresa de quienes las observan desde lejos, tales relaciones
no han sido sencillas, sino que se han encontrado signadas por
una fuerte tensión, con sus consecuentes controversias.
Durante la primera mitad del siglo XX, en general la filosofía de
la ciencia adoptó una perspectiva ahistórica y prescriptivista: el filósofo de la ciencia, desde un punto de vista puramente racional,
disponía cuáles debían ser los criterios de cientificidad sin recurrir
a consideraciones históricas. Esta situación comienza a cambiar
a partir de 1962, con La estructura de las revoluciones científicas,
donde Kuhn reclama un papel para la historia a la hora de abordar cuestiones filosóficas vinculadas con la ciencia, y lo hace desde la Introducción misma del libro. A partir de ese momento, cada
vez fueron menos los filósofos de la ciencia que prescindieron del
desarrollo histórico de la ciencia.
Un ejemplo paradigmático de esta incorporación de la historia
a la filosofía de la ciencia es la postura de Imre Lakatos, quien
afirmaba que sin historia de la ciencia, la filosofía de la ciencia es
vacía. Según Lakatos, no obstante, deben distinguirse la historia
interna y la historia externa. La historia interna recoge la confrontación racional entre teorías o programas de investigación en un
área específica; ella es, entonces, la reconstrucción racional de la
historia que realiza el filósofo de la ciencia, pertinente a la hora
de decidir, por ejemplo, si el agente histórico X se comportó o
no racionalmente al escoger la teoría A y no otra B. La historia
externa, por el contrario, incluye aquellos factores ideológicos,
culturales o sociales que podrían haber inhibido o promovido la
aceptación de una teoría y no de otra, con independencia de cuál
debió haber sido aceptada (o rechazada) racionalmente.
Esta nueva perspectiva histórica, a la vez que enriqueció a la filosofía de la ciencia, tensó su relación con la historia de la ciencia.
No pocos historiadores de gran prestigio manifestaron su rechazo
por el modo en que los filósofos utilizaban la historia de la ciencia. Por ejemplo, Bernard Cohen señala que las preguntas del
filósofo no son históricamente significativas; por ejemplo, mientras el filósofo se pregunta si la teoría de Newton es lógicamente
inferible de las de Galileo y Kepler, el historiador indaga cómo el
personaje histórico Newton se percató de la necesidad de modificar
las teorías de Kepler o Galileo. Cohen lamenta que muchos filósofos no se remitan a las fuentes históricas, tomando afirmaciones
fuera de contexto o sencillamente adaptando a sus propios fines
las creencias de otros filósofos; por ejemplo, el filósofo William
Newton-Smith apoya la tesis de Paul Feyerabend, según la cual
la teoría copernicana triunfó gracias a la habilidad publicitaria
de Galileo, mediante “citas de Galileo” extraídas de la obra del
propio Feyerabend... y que por tanto no son textuales de Galileo.
Otro ejemplo de la incomodidad de los historiadores lo proporciona
Helge Kragh, quien considera las reconstrucciones de los filósofos
inadmisibles, pues carece de importancia histórica el que un científico del pasado pensara o no como le hubiera gustado a un moderno
filósofo. A su vez, Paolo Rossi señala que al historiador le interesan
los procesos temporales y no sus sustitutos lógicos, es decir, lo que ha
sucedido y no lo que hubiera debido suceder. Para Gerald Holton,
por su parte, el influjo sobre la historiografía de esas “parodias ahistóricas” (las reconstrucciones racionales de la historia) es nefasto pues,
lejos de adecuarse a los hechos documentados, parecen destinadas a
salvar a los científicos de la amenaza de lo irracional.
Si bien las quejas de los historiadores de la ciencia están justificadas y la reconstrucción de la historia con fines filosóficos es una
estrategia historiográficamente inadmisible, ¿es posible narrar la
historia de la ciencia desde un “vacío” epistemológico, es decir,
sin absolutamente ningún presupuesto filosófico? Para aproximarnos a la respuesta, en el próximo artículo consultaremos a
algunos de aquellos filósofos-historiadores de la ciencia, es decir,
que han practicado (o practican) a la vez ambas disciplinas.
39
cología
Limnoperna en bioboxes. Embalse Río Tercero, Córdoba
Invasiones biológicas
Viajó de colado
Vino en barco desde Asia a principios de la década del noventa.
Se instaló en la Cuenca del Plata y desde entonces se ha
extendido aguas arriba llegando a Paraguay, Brasil y Uruguay.
Se lo conoce como mejillón dorado y es uno de los bivalvos
exóticos, invasores de agua dulce, que ocasiona problemas
biológicos con implicancias económicas de gran importancia
en todo el mundo.
E
n 1991, desde China, el molusco
Limnoperna fortunei llegó al Río de
la Plata y se instaló para quedarse. En
ese momento se hicieron las primeras
observaciones de este bivalvo en esta región. Conocido como mejillón dorado,
posee una gran capacidad reproductiva,
se adapta muy bien al medio y tiene un
alto grado de dispersión, según expresa
el doctor Francisco Sylvester, investigador del CONICET en el Departamento
de Ecología, Genética y Evolución de la
Facultad de Ciencias Exactas y Naturales
(FCEyN) de la UBA.
De contrabando
Analía Karadayian | [email protected]
Fotos: gentileza Laboratorio de Hidrobiología de la FCEyN, UBA.
40
Antiguamente, los buques comerciales que
venían a buscar o traer mercaderías desde Asia
a América del Sur recurrían a distintos materiales para contrarrestar el peso que quedaba
Limnoperna sobre muelle, delta del Tigre
“vacío” cuando se descargaba la mercancía.
Para compensar la carga y que el barco no
quedara en malas condiciones de flotación, se
empleaban escombros, maderas viejas, rocas
pesadas o materiales en desuso que encontraba la tripulación. Pronto se vio que usar
agua era la forma más sencilla y eficiente, y se
la llamó agua de lastre. Los barcos modernos
llenan inmensos tanques con agua del puerto
de origen (agua de mar o de río, según el caso),
y recorren grandes distancias hasta que, al llegar al puerto de destino, descargan el agua y se
llevan la mercadería de exportación.
El barco que trajo las larvas y adultos del
mejillón desde China, o desde algún país
del Sudeste Asiático, introdujo a Limnoperna fortunei en el ambiente al vaciar en
el Río de la Plata sus tanques llenos con
agua de lastre. Se sabe que es una especie
nativa de la China. Las primeras observaciones del científico Brian Morton, en
aquel entonces investigador de la Universidad de Hong Kong y pionero en el estudio de esta especie, permitieron conocer
que este mejillón había llegado a Hong
Kong, Japón y Taiwan.
No solo el mejillón dorado migró a la Argentina, sino también otros organismos que,
por azar, entraron en los tanques con agua
de lastre y fueron capaces de sobrevivir al
transporte y las condiciones ambientales una
vez liberados en los ecosistemas argentinos.
La introducción accidental de moluscos
acuáticos es relativamente común con el
incremento del tráfico de buques transoceánicos. Si bien el transporte a través del
agua de lastre es una de las formas más
comunes en que se introduce una especie
acuática, también puede darse la llegada de
un nuevo organismo cuando se lo transporta como ítem alimentario, como ejemplar de acuarios, o bien en forma de larvas
y huevos como polizones de otros animales introducidos para su cultivo –como las
ostras–. Así, los “pasajeros biológicos” son
transportados normalmente por los buques
comerciales de forma inadvertida.
La distribución de Limnoperna se extiende desde el Río de la Plata hasta casi toda
la cuenca del río Paraná, Paraguay y Uruguay. El mejillón dorado pudo lograr este
avance de dos formas: o bien pegándose
a los cascos de buques que navegaban
por esas aguas o también pudo haberse
dispersado río arriba en el agua de lastre
de las embarcaciones que lo lastraron en
dichos ríos o en otros sitios donde se encuentra la especie.
Asimismo, el mejillón dorado fue introducido de forma independiente en otras cuencas sobre la costa de Brasil. Allí llegó en el
agua de lastre de buques provenientes de
la Argentina, el Uruguay u otros países del
sudeste asiático de donde el mejillón es originario. “La especie no tolera elevadas salinidades por períodos largos, sin embargo es
capaz de cruzar la barrera de agua salada que
suponen los océanos viajando dentro de los
tanques de agua de lastre”, aclara Sylvester.
Llegar al lugar adecuado
La palabra “invasión” generalmente nos
evoca una guerra, un pueblo destruido
tras la conquista de un imperio, o la pelea
entre dos bandos por cuestiones políticas,
sociales o incluso, por el territorio. Sin
embargo, no toda invasión es negativa. O
al menos no en todos sus aspectos.
Para la ecología, un invasor biológico es una
especie originaria de otro lugar (otra tierra,
río u océano) que llega a un ecosistema diferente y lo coloniza pasando a formar parte
del nuevo ambiente. Se reproduce rápidamente, se instala en muchos lugares de diversas características (generalmente debido
a la ausencia de sus depredadores naturales,
que se quedaron en el hogar de origen) e in41
cología
Limnoperna en helice casa flotante Embalse
Río Tercero, Córdoba.
Controlar al invasor
Controlar o combatir la incrustación del mejillón dorado u otros moluscos sobre la cubierta de
las embarcaciones no es tarea fácil. La herramienta típica más utilizada en casi todos los barcos
o yates y en algunos sistemas de cañerías, es la pintura de recubrimiento anti-fouling. Estas
pinturas, a base de óxido de cobre, compuesto tóxico para los bivalvos, previenen el “agarre”
del molusco a los cascos o superficies internas de tuberías. Sin embargo, no basta con el uso de
las pinturas especiales para controlar la invasión, ya que, ni bien se produce el desgaste o grieta
en la pintura, el mejillón se adhiere y comienza a reproducirse. El problema con las pinturas
es que son caras (tanto la pintura en sí como su aplicación), tienen un tiempo de vida útil, hay
lugares donde no se pueden aplicar (por ejemplo, en los filtros) o si se aplican se gastan rápido
por la acción del agua u otros rozamientos mecánicos.
En las centrales nucleares del mundo donde hay invasión de bivalvos como Limnoperna fortunei, se utilizan dos cámaras o sistemas duplicados de tuberías para realizar el enfriamiento. Así,
cuando una de las redes de refrigeración está siendo utilizada, el personal se dedica a “destapar”
la otra cámara. Sin embargo, para los buques comerciales o deportivos, no se puede aplicar el
mismo procedimiento. Una solución es sacar a la embarcación fuera del agua con una determinada frecuencia, a fin de limpiar profundamente el casco y otras partes sumergidas (hélices,
filtros, entre otros). El problema es que este servicio implica un costo adicional que no todas las
empresas o usuarios de yates pueden afrontar.
Ahora bien, desde hace un tiempo, se pretende establecer como norma el cambio del agua de
lastre en todos los buques comerciales. Esto forma parte de la convención sobre el agua de
lastre propuesta por la Organización Marítima Internacional. Si bien fue aprobada en el 2008,
todavía no es de cumplimiento obligatorio pues no todos los países se adhirieron; la ausencia
más importante es la de Panamá, país que tiene bajo su bandera un porcentaje sustancial de la
flota comercial mundial.
La nueva reglamentación implica que los barcos intercambien su agua de lastre en alta mar.
Con esta medida se logra, por un lado, bajar la concentración de organismos en los tanques,
dado que, normalmente, la mayor concentración de organismos se da en zonas costeras. Por
otro lado, se consigue acabar con las especies capturadas en puertos de agua dulce (las especies
tomadas en alta mar morirían a su vez al ser descargadas en un puerto de agua dulce). Así, las
distintas especies “extranjeras” no llegan a introducirse en los ríos o mares. Además de ser un
método económico, es simple y eficiente.
Para los casos en los que el intercambio del agua de lastre en alta mar no es viable, se están
desarrollando métodos alternativos de eliminación de los organismos (por ejemplo filtrado,
añadido de sal al agua, entre otros). Argentina no solo adhirió a la reglamentación sino que
poco a poco se van mejorando las tareas de control sobre el agua de lastre.
42
teractúa con otras especies del mismo ecosistema. Es lo que hizo el mejillón dorado al
introducirse en el Río de la Plata.
“En realidad, de acuerdo con nuestras observaciones, el mejillón dorado está ocupando un lugar y unos recursos (es decir un
nicho ecológico) que estaba en gran medida
vacante”, explica Sylvester, quien no solo
estudió a Limnoperna fortunei en la Cuenca
del Plata sino también estudió otros “polizones” acuáticos en el Canadá, donde investigó por más de tres años los organismos
transportados por los buques comerciales.
“Limnoperna es un mejillón filtrador y tiene
un biso, algo así como un ‘ancla’ que le permite pegarse a sustratos duros. Acá no había
ningún otro animal con esas características”,
agrega el investigador.
Antes de la década del 90, en la Cuenca del
Plata había una almeja (también introducida)
con características similares a Limnoperna;
sin embargo, este otro molusco vivía en suelos barrosos de forma tal que no compartía
el mismo hábitat con el mejillón dorado; es
decir que el nicho ecológico era diferente. Así,
el mejillón visitante encontró en nuestros ríos
el lugar justo para su primera estación; pero,
poco a poco, su permanencia se convirtió en
algo más que una simple visita del exterior.
Ahora bien, ¿cualquier especie puede introducirse así como así en un nuevo ambiente? “La especie que llega necesita que haya
similitud ambiental para poder sobrevivir”,
destaca Sylvester, y agrega: “Si se toma agua
de un puerto cálido y se la vuelca en uno de
agua fría, las especies probablemente no sobrevivirán; en cambio, de un puerto tropical a
otro de similar condición, o de uno templado
a otro de igual temperatura, los organismos
Para saber más sobre las
Invasiones
¿Qué es el agua de lastre?
Es el agua empleada en navegación
marítima para procurar la estabilidad
de un buque.
¿A qué se denomina biofouling?
Se denomina biofouling a la acumulación de material sobre la superficie del
interior de las tuberías provocada por
incrustaciones biológicas, que ocasionan pérdidas de energía por fricción
del flujo de agua o taponamiento del
ducto.
¿Qué es la cadena trófica?
Es una representación esquemática de
las relaciones alimentarias (quién se
come a quién) entre los componentes
de una comunidad biológica. Proceso
de transferencia de energía a través
de una serie de organismos, en el que
cada uno se alimenta del precedente y
es alimento del siguiente. También conocida como cadena alimentaria.
¿Qué son las especies introducidas?
Son especies no nativas del lugar o del
área en que se las considera introducidas, y adonde fueron transportadas
accidental o deliberadamente por las
actividades humanas. También son llamadas especies foráneas o exóticas.
¿Qué son las especies invasoras?
Son especies que se establecen en
nuevas áreas en las cuales proliferan,
se distribuyen y persisten, implicando
normalmente impactos económicos y
ambientales.
¿Qué es un nicho ecológico?
Es la posición de una especie en un
ecosistema o el espacio concreto que
ocupa en el ecosistema. Técnicamente es el conjunto de requerimientos
físicos y biológicos necesarios para la
supervivencia y reproducción de una
especie.
¿Qué es la pintura anti-fouling o antiincrustante?
Es un recubrimiento especial normalmente a base de óxido de cobre u otros
biocidas, destinado a prevenir el asentamiento y proliferación de organismos acuáticos incrustantes.
Limnoperna en tablestacados, delta del Tigre
podrán vivir y reproducirse”. Hay posibilidades de que una especie pueda introducirse
en el nuevo entorno si existe una similitud
ambiental, pero ello depende, además, de las
características específicas del organismo, las
posibilidades de alimentación, reproducción
o, incluso, de la existencia de competidores.
Limnoperna fortunei interactúa con toda la
cadena trófica. La especie consume algas del
fitoplancton, de modo que compite con el
zooplancton por el alimento. Asimismo, el
mejillón come el zooplancton e interactúa
con los peces. En este último caso, mientras
que para algunos resulta beneficioso, no lo
es para otros: los peces que tienen estadios
larvales que requieren del plancton para sobrevivir se quedan sin alimento. En cambio,
muchos otros peces, tanto estadios juveniles
como adultos, se alimentan de Limnoperna.
Así, se establecen relaciones tróficas bastante complejas.
Pérdidas económicas
El mejillón dorado genera más problemas de
los que uno podría creer. El molusco se asienta, madura y se incrusta en los sistemas de
agua destinados para la potabilización, refrigeración y sistemas anti-incendio provocando la reducción en el diámetro de tuberías,
el bloqueo de cañerías con la consiguiente
disminución del flujo, la acumulación de valvas o cascarones vacíos, la contaminación del
agua, la oclusión de filtros y el aumento de la
corrosión de diversas superficies.
Otros sitios que también sufren los daños
por Limnoperna son las centrales nucleares.
Éstas necesitan una red de tubos y cañerías
por donde circule agua para la refrigeración,
justamente allí mismo es donde el mejillón
se incrusta ocasionando principalmente la
obstrucción de los caños lo que impide así el
correcto funcionamiento del sistema de enfriamiento.
Particularmente, para los buques comerciales,
el incrustamiento o biofouling genera grandes
pérdidas económicas ya que, cuando muchos
mejillones se pegan en el fondo de la embarcación, aumenta la fuerza de rozamiento del
barco con el agua, lo que se traduce en una
pérdida de la autonomía naviera junto con un
aumento en el gasto del combustible.
Muchos países intentan controlar la dispersión de la especie a fin de reducir los daños,
y esto se logra ya sea con campañas de concientización, mediante estudios para predecir
el impacto económico, modificando las reglamentaciones para el tratamiento del agua de
lastre y utilizando pinturas anti-fouling para
prevenir la pérdida del combustible por rozamiento (ver recuadro “Controlar al invasor”).
Uno de los países donde se controla rigurosamente la dispersión de bivalvos invasores
es Estados Unidos, pues allí hay un molusco
similar a Limnoperna fortunei llamada Dreissena polymorpha o mejillón cebra. Ecológicamente es muy parecido al mejillón dorado, y
ocasiona impactos económicos y ambientales
similares.
Así, el mejillón dorado constituye un animal
de gran interés para el estudio e investigación,
no solo por su gran adaptación al medio y capacidad de dispersión, sino también por los
diversos daños que ocasiona a su paso. Por
ello, se requiere de una gran inversión económica, junto con una adecuada regulación
de los vectores de transporte de esta y otras
especies exóticas.
43
anorama
Los libros electrónicos
Gutenberg 2.0
La imprenta de Johannes Gutenberg dio un salto tal en la
tecnología, que tuvieron que pasar más de quinientos años
para que otro invento tomara la posta. La revolución digital
trajo bajo el brazo a los libros electrónicos que, muy de a
poco, están ganando posiciones en el mercado editorial y en
las preferencias de los usuarios.
Juan Pablo Vittori
[email protected]
44
D
efinir qué cosa era un libro no requería demasiadas explicaciones
adicionales, por lo menos hasta hace unos
años. Las cosas están cambiando y, hoy
por hoy, la definición de “libro” requiere
algunas aclaraciones. ¿Qué entendemos
por libro? Hay una parte de esta explicación que ya está zanjada para los editores,
y es la referida a la diferencia entre “texto”
y “libro”. En líneas generales, el texto se
refiere al contenido, y el libro al soporte en
el cual ese texto está inserto (generalmente
un objeto de papel, impreso) y que ha pasado por un proceso de edición.
De textos, estamos rodeados, pero no necesariamente estamos rodeados de libros.
LA TINTA ELECTRÓNICA (e-ink)
Fuente: www.eInk.com
Los soportes a los que estábamos acostumbrados se diversificaron, y lo hicieron de
manera tan vertiginosa y tan variada que
los encargados de hacer libros se encontraron con la obligación de reaprender una
parte importante de su profesión, quizás
la más importante: transformar textos en
libros.
Las pantallas de tinta electrónica, a diferencia de las de LCD, no emiten luz sino que la reflejan,
como el papel. Estas pantallas tienen un grosor de 3 mm aproximadamente y están compuestas
por tres capas: una de protección, un polímero y una de microtransmisores. El polímero está
compuesto por millones de microcápsulas esféricas que en su interior contienen micropartículas de titanio blancas y negras cargadas eléctricamente que cambian su tonalidad cuando se les
aplica una corriente eléctrica. Tiene una resolución limitada para imágenes o videos, pero ideal
para tipografías, y puede ser vista desde cualquier ángulo de visión, aún bajo la luz del sol. No
necesitan voltaje para mantener la tonalidad por lo que, técnicamente, una vez que se formó la
página, el gasto de energía es cero. Esto hace que la duración de la batería de los aparatos que
usan esta tecnología se mida en meses.
Libros y libros electrónicos
La principal causa de la “crisis” que obliga
a repensar la tarea editorial es la llegada de
un actor inesperado frente a la tradición
de papel y tinta: el libro electrónico. Ahora, definir lo que es la versión electrónica
de un libro tiene algunos bemoles. Para
empezar, vale advertir que los mismos
términos con que son definidos los libros
electrónicos y los artefactos lectores suelen
generar confusión. A la hora de las definiciones en temas de tecnología e innovaciones, como suele suceder, manda el idioma
inglés: un libro electrónico es un eBook, y
un dispositivo para leer libros electrónicos
(por lo tanto) es un eReader. La confusión
general tiende a asignar la denominación
eBook a los dispositivos lectores cuando,
en realidad, son solo un soporte para los
libros electrónicos. Hecha esta primera
diferencia, veamos qué se entiende por
eBook. Es una versión electrónica o digital
de un libro. Entonces, para leer un eBook
necesitamos algún dispositivo electrónico.
JOBS TAMBIÉN SE EQUIVOCABA
“…no importa qué tan bueno o malo sea
el producto, el hecho es que la gente ya no
lee más. El cuarenta por ciento de la gente
en Estados Unidos lee un libro o menos por
año. El concepto está viciado desde el comienzo, porque la gente no lee más”.
Estas fueron las palabras de Steve Jobs, el
mentor de Apple, sobre el lanzamiento de
Kindle de Amazon (hoy el lector de libros
más vendido del mundo). Paradójicamente,
su erróneo vaticinio tampoco se vio corroborado con su biografía que se transformó
en bestseller de Amazon en 2011.
Hoy por hoy, un libro electrónico se puede leer en una multiplicidad de dispositivos, estos son algunos de ellos:
• eReaders (lectores de libros electrónicos).
• Tabletas (computadoras portátiles de
pantalla táctil).
• Teléfonos celulares.
• Dispositivos reproductores multimedia
(iPod, MP4 etc.).
• Computadoras personales, laptops,
netboooks, etc.
En principio, los que nos interesan son
los dos primeros. El eReader está pensado
específicamente para la lectura y para ello
utiliza dos posibles tecnologías de pantalla, la e-ink (ver recuadro: “La tinta electrónica”) y la LCD. ¿Qué las diferencia?
La primera es amigable a la vista y permite que la experiencia de lectura se parezca mucho más a la del papel que a la de
leer en una pantalla de computadora. Por
supuesto, tiene sus ventajas y sus desventajas. Estos dispositivos consumen muy
poca energía y, por lo tanto, las baterías
son de larga duración, son muy livianos y
permiten almacenar una gran cantidad de
libros; entre estos contamos el Kindle (de
Amazon), el Nook (de Barnes & Noble),
el Papyre (de Grammata) y muchos otros
genéricos. Entre las contras, cuenta que
son monocromos, la calidad de reproducción de imágenes es pobre y son lentos y
toscos para la navegación web. Pero, justamente, estas desventajas técnicas son las
que hacen de estos dispositivos los nuevos
libros electónicos. Pues suplen de manera
electrónica las funciones (no todas, por
supuesto) del libro en papel, y le agregan
algunas. Permiten leer sin producir el cansancio que producen las pantallas LCD, y
sus otras funciones son tan limitadas que
no producen distracciones. Quien posee
un eReader de tinta electrónica no está
pensando en navegar, ni en usar juegos, ni
en ver videos, está pensando en leer. Solo
en leer. Un paso más allá están las tabletas
(iPad de Apple, Kindle Fire de Amazon,
Nook Tablet de Barnes & Noble, LightPro de Telefónica, entre otras): aquí se
diversifica la experiencia ya que, con su
pantalla color y táctil, permiten lectura,
navegación, acceder a videos, mp3 y un
sinfín de chiches tecnológicos.
Pero lo primero que hay que saber para
llevar adelante aquel antiguo y noble propósito de leer es, como en todo artilugio
tecnológico, en qué formato debe estar el
libro para que podamos leerlo. Y aquí comienza la batalla entre los formatos más
estándares y los nuevos formatos pensados
para eBooks.
Los formatos electrónicos
Los eReaders permiten leer varios formatos
de archivo, entre ellos el .ePub, el .pdf, el
.mobi, y algunos leen o transforman archivos .doc. El tema es cómo se ven estos
textos en un eReader. El archivo .ePub es
el que lleva las de ganar en lo que se refiere
a texto continuo. Es limitado en términos
de diagramación (aunque el nuevo ePub3
45
anorama
Algunos datos del cambio de paradigma en
Estados Unidos, de la Encuesta de Aptara,
hecha a más de 1.300 profesionales del
mundo de la Edición.
Planes de Producción de eBooks
62% con producción actual.
22% Sin producción actual pero con planes
futuros.
16%. Sin planes de producir en el futuro.
e-EXm
Con el auge y la masificación de los eReaders y con la idea de acercarse a los usarios de estos nuevas formas de leer, EXACTAmente ya había adoptado el formato .pdf para su versión
digital y desde el número 48 puede leerse también en .mobi y .ePub.
Dispositivos lectores preferidas
25% prefieren Apple iPad.
18% prefieren Amazon Kindle.
18% prefieren PC o MAC.
9% prefieren iPhone.
6% prefieren Nook / Nook Color.
5% prefieren Sony reader.
Volumen de producción de las editoriales
37% producen del 76 al 100% de sus títulos como eBooks.
32% producen del 1 al 25% de sus títulos
como eBooks.
13% producen del 26 al 50% de sus títulos
como eBooks.
11% producen del 51 al 75% de sus títulos
como eBooks.
6% no tienen datos.
Principales problemas a resolver
30% Problemas entre formato, contenido y
compatibilidad entre dispositivos.
21% Problemas con canales de distribución.
16% Calidad del contenido convertido.
16% DRM (Administración de contenidos
digitales).
8% Costo total de la producción de eBooks.
Fuente: www.aptaracorp.com/Survey, a
través de www.elclubdelebook.com
mejora mucho), pero permite una lectura fluida y una adaptación del tamaño de
tipografía, el uso de tablas de contenido,
también permite tomar notas, resaltar
párrafos y el uso de diccionarios. Los
eReaders de Amazon, por ejemplo, tienen
también un formato propio que es similar
al .ePub y se llama .mobi. Con los .pdf
la cosa cambia. Por ser un formato cuya
principal característica es la de transformar cada página en una imagen, los archivos .pdf se ven como un bloque dentro del
cual hay que desplazarse para ver el contenido. Por un lado, respeta diagramaciones
complejas (con varias columnas, tablas y
gráficos, por ejemplo) pero no es tan amigable para recorrerlo visualmente.
46
De formas y deformes
Todos estos cambios recientes nos traen nuevas preguntas a nivel de usuarios (o lectores),
desde las más elementales (¿me compro un
eReader?, ¿cuál?) hasta las que involucran
cuestiones filosóficas, aquellas que comparan entre las distintas experiencias de lectura
y cómo afectan nuestra pasión por los libros,
o el nuevo espacio físico y psicológico que se
crea por la ausencia de bibliotecas en nuestros
hogares. Pero las editoriales están afrontando
este cambio de paradigma de una manera distinta. Saben que el mercado de libros electrónicos está creciendo de manera desmesurada
y están pasando sus catálogos a versiones electrónicas. Esto trae aparejadas algunas ventajas
y algunos problemas. Como ventajas, por
ejemplo, está la posibilidad de tener a nuestra
disposición títulos que ya no se imprimen,
que están fuera de catálogo. Una vez que
una editorial generó un eBook, siempre estará
disponible. Pero como desventaja tenemos
cierta desprolijidad para con el nuevo producto, el trabajo artesanal (que puede existir
perfectamente en un eBook) se deja de lado
en el apuro por tener todo un catálogo listo,
ya: muchos libros se distribuyen sin portada,
sin tabla de contenido, sin separación de capítulos. Otros pasan a ser una ristra de texto
continuo. ¿Se pueden leer? Sí, es posible leerlos. ¿Queremos leer así los libros? Bueno, ahí
están marcados los rumbos, delineados entre
emular empáticamente la forma de lectura de
un libro tradicional (algunas tabletas o eReaders con pantalla táctil emulan, por ejemplo,
el paso de las páginas) o ceñirse a la forma más
elemental del paso del texto (y por qué no, del
paso del tiempo).
También surgen otros problemas en torno a
la falta de materialidad: ¿Cómo se regala un
libro? ¿Cómo se puede prestar?, por ejemplo
el eReader Nook tiene un sistema llamado
LendMe que permite prestar de forma electrónica el libro, aunque estas prácticas todavía nos parecen lejanas y ajenas.
Lo primero que nos enseña la experiencia
del libro electrónico es que, a diferencia
de leer en papel, que no requiere ningún
aprendizaje, esta nueva forma de leer
implica recorrer un camino tecnológico
que involucra los soportes, los formatos
estándares y específicos de cada lector, y
las múltiples formas de conversión para
adaptar contenidos de un formato a otro.
Lograr un sistema aceitado que permita
leer cualquier cosa que queramos en un
lector electrónico, puede resultar una experiencia decepcionante. La pregunta es,
por ahora, ¿cuándo el sistema de lectura en
libros electrónicos será tan fácil y práctico
como el de libros en papel? ¿Es inevitable
la comparación de ambas experiencias de
lectura? Por ahora sí. Es un momento coyuntural en el que una nueva tecnología
se está entrometiendo con otra milenaria,
de fuerte raigambre cultural y, por qué no,
sentimental. Lo que es cierto es que ya estamos, aun sin quererlo, en ese camino:
muchos de los libros que antes tenían al
papel como soporte, actualmente se consiguen solo en versiones electrónicas. Y la
computadora no está siempre a mano para
leerlas. Estamos por adoptar a una criatura
que lleva en su memoria 500 años de historia y de historias. Está bien ir pensando
cómo nos vamos a llevar con ella.
iblioteca
La memoria
animal
Adquisición, persistencia y olvido
Héctor Maldonado
Buenos Aires, 2008
El gran diseño
Stephen Hawking y Leonard
Mlodinow
Barcelona, 2010
Crítica, 232 páginas
EUDEBA, 112 páginas
La memoria animal funciona casi de la
misma manera que la memoria humana. Por eso este libro, que por el título
para el lego podría parecer de interés
zoológico (o veterinario) tiene el foco
puesto directamente sobre la psicología
humana.
Es casi un tratado, un ABC de lo que se
sabe y de cómo se sabe todo lo concerniente a la formación de los recuerdos;
dónde y cómo se almacenan y cómo los
evocamos cuando los necesitamos.
Héctor Maldonado fue un pionero en
la Argentina. Su papel como fundador
de departamentos y grupos de investigación, su rol como formador de científicos y su hacer siempre fecundo y febril,
nos hizo pisar, desde su llegada, la frontera del conocimiento.
Este libro es prolijo y ameno. Relata los
experimentos fundamentales con los
que se fue jalonando el conocimiento.
Intercala con pertinencia los que realizó (y continúa realizando) su propio
grupo de investigación, configurando
un texto tanto para el interesado en la
materia como para el estudiante que
quiere ponerse al día.
Pero a la vez, se trata de una pieza de
valor histórico ya que fue escrita por el
que sin duda alguna se erige como uno
de lo próceres de la ciencia argentina.
¿Ha muerto la filosofía? Según los autores
es ese el veredicto, ya que las preguntas
fundamentales de las que siempre se ocupó la filosofía están siendo abordadas –y
respondidas– desde la ciencia. En este maravilloso libro se ocupan de una de ellas,
quizás, la más profunda: la creación del
universo.
La respuesta trivial “Dios creó el universo” solo patea la pelota hacia adelante…
pues entonces, quién creó a Dios. Pero
es probable que la Física haya abolido la
pregunta y que la respuesta esté inscripta
en las leyes matemáticas del universo. En
este libro muy bien hilvanado se desarrolla
la argumentación científica que plantea y
responde esta cuestión.
De la Tierra y
los planetas
rocosos
Una introducción a la tectónica
Andrés Folguera y
Mauro Spagnuolo
Buenos Aires: ME - INET, 2011
Colección: Las ciencias naturales y
la matemática - 136 páginas
¿Por qué nuestro planeta es como es? ¿Por
qué los otros planetas del Sistema Solar se
parecen tanto y, al mismo tiempo, son tan
distintos a la Tierra? ¿Qué procesos hicieron que el relieve sea como es? Estas son
algunas de las preguntas que Andrés Folguera y Mauro Spagnuolo abordan en De
la Tierra y los planetas rocosos. Y, como reza
el subtítulo, el libro se propone como una
introducción al conocimiento de los procesos que han definido el relieve terrestre.
Es decir, no es un tratado de Geología. Es
más, los autores admiten que intentaron
rehuir de las clasificaciones rigurosas y las
descripciones exhaustivas.
El gran diseño es una panorámica clarísima
por la que pasan la estructura del universo,
la cuántica y la cosmología imbricadas, las
supersimetrías, el Big Bang, el ajuste fino,
el principio antrópico débil, el principio
antrópico fuerte, los multiversos, los campos, el vacío, las teorías de unificación, y
la Teoría M. entre otros temas.
A través de diez capítulos, organizados
como si fuera una ópera, con apertura,
primero y segundo acto, el libro recorre la
historia de nuestro planeta desde la formación del Sistema Solar, pasando por el origen de las cordilleras, la historia de los continentes y los océanos, y la relación entre la
tectónica de placas con la vida y el clima.
El último capítulo se ocupa de comparar
la Tierra con los demás planetas rocosos.
En un lenguaje llano, sencillo, exquisitamente explicado con comparaciones, analogías e ilustraciones, que iluminan la prosa
con una claridad abrumadora, los autores
pasan revista a los asuntos más espinosos
de la Física hasta arribar a la cuestión que
por siglos ha desvelado a la humanidad:
“¿Necesita el universo un creador?”.
Este libro forma parte de una colección creada por el Instituto Nacional de
Educación Tecnológica, y fue diseñada
con el fin de mejorar la enseñanza y el
aprendizaje de Biología, Física, Matemática y Química. Está destinada a docentes y alumnos del nivel secundario
de todo el país.
47
reguntas
QWERTY, ¿a qué se debe la
disposición de las letras en los
teclados?
Responde Ricardo Cabrera, licenciado en Ciencias Biológicas, profesor
del CBC, director de EXACTAmente.
Más de uno se preguntará a qué se debe la disposición, aparentemente caprichosa en los teclados de las computadoras.
Tal vez una disposición alfabética, o con alguna lógica sencilla y razonable fuera más fácil de memorizar y eso ayude a
ganar velocidad de tipeo en los iniciados… pero todo tiene
su historia.
En las primeras máquinas de escribir la pulsación de las
teclas accionaba brazos de palanca en cuyo extremo se hallaba el molde con el tipo correspondiente a la tecla. Los
moldes (pequeños prismas de metal) debían entrar todos
en el mismo lugar, donde se dejaba impreso el tipo y, lógicamente, en ese lugar estrecho podían entrar de a uno.
Para que entrara el siguiente, la máquina debía esperar que
el tipo anterior abandonara ese reducido espacio.
Si el mecanógrafo digitaba con mucha velocidad era frecuente que
no diese tiempo a dejar el espacio vacío y, entonces, el molde siguiente se encontraba con el espacio ocupado y los moldes se trababan. La
solución a este problema que encontraron los fabricantes fue diseñar
un teclado en el que las letras que con más frecuencia se escriben
juntas (en el inglés) se hallen lo más separadas posibles para alargar
el tiempo entre pulsación y pulsación. Luego de un breve tiempo de
prueba y error nació la disposición llamada QWERTY (en alusión al
primer renglón), que fue la que menos trabas producía.
El auge de la mecanografía se extendió mucho, y la cantidad de
mecanógrafos habituados a esta disposición, hicieron que los nuevos desarrollos tecnológicos –en los que las trabas ya no ocurrían–
no pudieran modificar la disposición QWERTY. Hubo varios intentos, pero el mercado siguió prefiriendo el absurdo QWERTY.
¿Por qué en la naturaleza aparece
la forma hexagonal con tanta
frecuencia?
Responde el doctor Gabriel Mindlin, del Departamento de Física de la FCEyN.
El panal de abejas es un ejemplo prototípico de forma hexagonal
que aparece con mucha frecuencia en la naturaleza. ¿Por qué estos
insectos laboriosos fabrican esas estructuras para acumular el fruto
de su trabajo? La explicación natural es que necesitan guardar la
miel en celdas individuales, aprovechando el espacio al máximo.
El primero que demostró la ventaja del hexágono para aprovechar
el espacio fue Pappus de Alejandría, un matemático que vivió en
el siglo III de nuestra era, y afirmó que, de todos los polígonos regulares con el mismo perímetro, los que encierran un área mayor
son los que tienen mayor número de lados. La forma hexagonal
cumpliría el propósito de conseguir una mayor superficie, sin dejar huecos, porque cada hexágono encaja perfectamente con cada
uno de los que lo rodean.
Esa hipótesis solo pudo ser demostrada matemáticamente en
1999, por Thomas Hales, de la Universidad de Michigan, quien
dio evidencia de que la celda de seis lados es la estructura geométrica que permite crear una mayor superficie con el perímetro
mínimo. Al implicar un menor perímetro, la celda hexagonal
permite ahorrar material para construirla. Así, se obtiene una
máxima capacidad para almacenar miel con el mínimo de cera
para construir el soporte.
48
Los hexágonos también están presentes en otros eventos de la
naturaleza, como al calentar un líquido, por ejemplo, cuando
preparamos una sopa de arroz. Al recibir el calor de la hornalla, el
líquido comienza a ascender. Pero, al subir, se enfría, y entonces
desciende. La matemática puede dar cuenta del comportamiento
del fluido cuando está sometido a una diferencia de temperaturas. Se trata de una cuestión de ruptura de simetrías. Como la
cacerola es plana, sin abolladuras, el líquido se calienta en forma
homogénea, simétrica, y, sin embargo, en algunas zonas sube y
en otras baja. La simetría se rompe y, al subir y bajar el líquido,
se forman las líneas de un hexágono. La matemática puede predecir esa estructura hexagonal como subsimetría de la situación
original. Ese es el mecanismo por el cual, en general, emergen
estructuras simétricas en la naturaleza, como rupturas espontáneas de simetrías.
Los hexágonos pueden visualizarse en el laboratorio. Dado que a
distintas temperaturas el fluido cambia el índice de refracción, si
uno lo ilumina, las zonas frías aparecen como líneas brillantes, y
las calientes, como líneas oscuras. De ese modo se forman dibujos
hexagonales bellísimos.
Variedades
Las lecciones del Maestro Ciruela
Exigencias
A
dmitámoslo: tenemos un serio problema. No se aprende nada
sin esfuerzo. Por más que usted sea el docente más efectivo y
genial del universo sus estudiantes no aprenderán si no ponen –de
parte de ellos– una cierta cantidad de duro esfuerzo (de estudio,
de concentración, de dedicación, de tiempo que deberán restarle
a otras actividades por demás placenteras). Déjeme inventar: yo
diría que cualquier aprendizaje depende en un 90% del estudiante
y apenas en un 10% del profesor. No sé usté qué opina.
Bueno, sea como sea, la cuestión es que si usted está al mando
de la tarea colectiva enseñanza-aprendizaje deberá advertirles sobre
esta cruel realidad. Y no digo cruel porque descrea que el estudio
no pueda ser placentero, lo digo sencillamente porque, como todo
adulto sabe, a los jóvenes (sobre todo a los adolescentes) los enferma gravemente que les pidan esfuerzos o los sometan a exigencias.
Tengo colegas que esconden esa realidad, y hacen mal. Hay otros
que organizan sus clases con pura diversión, lo cual no estaría
mal si dentro de ese jolgorio aparecen –además– las pautas del
trabajo rudo que los estudiantes tendrán que realizar por su propia cuenta. Los ejemplos pintorescos, los acertijos, las anécdotas
interesantes, los juegos, son condimentos imprescindibles... pero
deben acompañar inexorablemente la enseñanza de los caminos
difíciles, arduos, repetitivos.
Las lecciones del Maestro Ciruela
Ricardo Cabrera
[email protected]
La ejercitación en física, matemática, química (y por qué no: en
cualquier disciplina) no escapa a las reglas de la ejercitación física,
la de los músculos y las articulaciones. Para lograr la medialuna
con soltura y elegancia hay que practicar, practicar y practicar.
Recién cuando sale siempre bien, es que se ha aprendido, y seguramente todavía se puede perfeccionar. Con las destrezas intelectuales ocurre lo mismo. Hay que sudar la gota gorda.
El incentivo mayor que un estudiante debe tomar como propio
(y usted debe convencerlo de ello) es que alcanzar el aprendizaje
le abre las puertas a una vida mejor. Aprobar asignaturas, cursos,
grados, carreras... los convierte en personas más poderosas, con
posibilidades laborales mejores, con acceso a parejas más bonitas
o más guapos, con futuros menos rutinarios y más creativos.
Es cierto, nunca va a faltar aquel estudiante rebelde que le responda que el futbolista tal o cual tiene todo eso y mucho más y
apenas si terminó el cuarto grado. Es muy cierto. Pero no deje de
prevenirlo de que no se deje engañar por la visibilidad en los medios, que solo uno de cada 10.000 futbolistas alcanza ese éxito y,
en contrapartida, solo uno de cada 10.000 profesionales se queda
en la lona. La vida es una sola como para jugarla en una lotería
tan mezquina.
HUMOR por Daniel Paz
La colección completa de
las Lecciones del Maestro
Ciruela, de Ricardo
Cabrera (las publicadas
en EXACTAmente y
muchas más) editadas
por EUDEBA en enero
de 2012, con prólogo de
Mario Bunge, ahora a su
disposición.
49
rtes
Fig. 1
Fig. 2
Fig. 3
De icnitas y petroglifos
Una mirada de artista sobre los rastros de la vida en el pasado
José Sellés-Martínez | [email protected]
E
l término “petroglifo” designa una de las
más antiguas formas de arte, la incisión
de líneas en la piedra, y se sabe que su realización ya era habitual en el neolítico, aunque
la interpretación del significado y objetivo de
estas incisiones no sea del todo clara a los especialistas. Sin embargo no ha sido el hombre
el único ser vivo que ha dejado sus marcas en
la piedra… también lo han hecho innumerables formas de vida del pasado geológico y los
sedimentólogos y paleontólogos investigan,
también, cuál es el sentido de esas huellas.
El término “icnita” designa un tipo especial de
fósil constituido, no por los restos de un organismo, su molde o su esqueleto, por ejemplo,
sino por las marcas dejadas por su actividad.
Estas marcas son las claves que permiten reconstruir los hábitos de vida y alimentación
de los seres que las originaron. Las más populares entre las icnitas son, posiblemente, las
pisadas de los dinosaurios (que permiten, por
ejemplo, calcular su peso y establecer la velocidad de su marcha), pero éstas no son ni las
únicas ni siquiera las más interesantes de ellas.
El doctor Adolf Seilacher es profesor de las
Universidades de Yale y de Tubingen, y es
sedimentólogo y especialista en el estudio del
origen e interpretación de las icnitas. Este científico alemán obtuvo en el año 1992 el premio Crafoord, que le permitió visitar aquellas
localidades del mundo en las cuales existían
afloramientos de rocas sedimentarias en cuyas
superficies podían observarse estas curiosas e
interesantes marcas. Acompañado por personal técnico idóneo y utilizando materiales
especiales obtuvo moldes de los afloramientos
y realizó luego copias de los mismos en resina.
Estas copias son livianas y, sobre todo, transportables, y se preparó con ellas una exposición itinerante denomina “Arte fósil”. Toda la
excelente información científica se concentra
en el catálogo de la muestra, magníficamente
ilustrado con fotografías de las icnitas y con
excelentes esquemas de su interpretación y su
asociación a la actividad de seres vivos en el
pasado geológico. Para más información sobre
estos “petroglifos” geológicos les recomendamos visitar http://www.fossil-art.dk/KUNST.
html, donde se reproduce exclusivamente el
material desde su perspectiva artística, mientras que en http://www.fossil-art.dk/Fossil_ArtUK.html se brindan, además, detalles acerca
de su génesis e interés científico.
Como es habitual, les dejamos algunas preguntas cuyas respuestas, asi como un buen número
de ilustraciones, pueden encontrar en el blog
(revistaexactamente.wordpress.com)
a. ¿Qué factores principales cree usted que
controlan la profundidad de la huella producida por la pisada de un animal?
Fig. 5
50
b. ¿Podría decidir con seguridad si la figura 5 corresponde a hojas fósiles (restos de
un organismo) o es una icnita (marcas de
la actividad de un organismo)?
Fig. 4
Epígrafes de las ilustraciones
Figura 1: petroglifos en Colombia
Figura 2: icnitas actuales en la margen del
río San Juan.
Figura 3: estromatolitos. Estas evidencias de
vida son las más antiguas de la Argentina.
Olavarría, Provincia de Buenos.
Figura 4: esquema que muestra la interpretación del origen de la traza fósil denominada parundigma schoelli
Figura 5: ilustración para la pregunta b
Créditos de las ilustraciones
Figura 1:
Sitio oficial de Mallama en Nariño,
Colombia
Figuras 2 y 3 José Sellés-Martínez
Figuras 4 y 5 reproducidas de Seilacher, D.,
2008. Fossil Art. An exhibition of the Geologisches Institut. Tubingen.
Fly UP