Translate

lunes, 17 de diciembre de 2007

EL ULTIMO ANCESTRO COMUN IV

V. Genómica comparada y la búsqueda del cenancestro
La reconstrucción de estadios ancestrales ha adquirido una perspectiva totalmente novedosa con la disponibilidad, a partir de 1995, de un número creciente de genomas celulares completamente secuenciados. Como habían afirmado desde 1965 Zuckerkandl y Pauling, la historia evolutiva de un organismo está contenida en su genoma --pero a menudo esta información es difícil de interpretar, debido a una serie de fenómenos biológicos que van desde la falta de preservación de la estructura primaria de los genes, hasta la existencia de niveles de redundancia de las secuencias cuya naturaleza no entendemos del todo, pasando por el transporte horizontal, una de las peores pesadillas que pueden enfrentar los biólogos.
Como se observa en la Figura 6, los genes del cenancestro estarían definidos por el conjunto de secuencias presentes en la intersección de los conjuntos que representan los genomas de las Archaea, las Bacteria y los Eucarya. Sin embargo, en la práctica esta reconstrucción se ha visto limitada por (a) el hecho de que los genomas secuenciados no representan la diversidad biológica real; (b) los distintos niveles de conservación de los genes, que distan mucho de ser los mismos para todas las secuencias; (c) los problemas para anotar, es decir, identificar a las secuencias presentes en las bases de datos; (d) la presencia de secuencias altamente conservadas cuya función es aún completamente desconocida por no disponer de datos experimentales; (e) la pérdida polifilética independiente de secuencias, funciones y rutas metabólicas que han sufrido diversos organismos, sobre todo parásitos y simbiontes; y (f) el movimiento lateral de los genes, que en algunos casos pueden traspasar las fronteras que separan a los grandes dominios.
Ante un inventario de dificultades como éste parecería ser imposible definir con precisión los rasgos del cenancestro; sin embargo, los resultados son alentadores. Por ejemplo, el transporte horizontal de secuencias es un fenómeno real (que subyace, por ejemplo, la bien conocida resistencia a antibióticos que se observa con una frecuencia cada vez más alarmante entre muchos patógenos de humanos y animales) que puede obscurecer la reconstrucción del pasado evolutivo. Sabemos, por ejemplo, que incluso los operones del ARNr pueden llegar a sufrir este fenómeno, pero el hecho de que se mantenga la identidad de los grupos de microorganismos (es decir, las espiroquetas siguen siendo indentificables como tales, no hay bacterias Gram positivas que se hayan transformado en Gram negativas, etc.) sugiere que existen limitaciones biológicas al intercambio de genes. En 1999, por ejemplo, tres grupos de trabajo demostraron, en forma independiente, que la representación gráfica del contenido total de secuencias (es decir, fenogramas) en los genomas secuenciados (Figura 7) mostraba como, a pesar del transporte horizontal, no sólo los tres dominios, sino incluso las distintas líneas biológicas que las constituyen, se pueden identificar sin problemas (Snel et al., 1999; Tekaia et al., 1999a; Fitz-Gibbon y House, 1999)). Es decir, a pesar de la promiscuidad con la que los seres vivos han intercambiado genes a lo largo de la evolución, la reconstrucción del pasado es posible.
Claro que los resultados no siempre son del todo compatibles. Al comparar las secuencias de los tres dominios resulta sorprendente la falta de conservación de los distintos tipos de ADN polimerasas (sobre todo si tenemos presentes que uno de los rasgos que solemos definir como esenciales en la caracterización de los seres vivos es la reproducción, que a nivel molecular depende precisamente de la actividad enzimática de estas enzimas) y su distribución biológica. Ello ha llevado al grupo de Arkadi Koonin, del National Institute of Health de los EEUU, por ejemplo, a sostener que el último ancestro común poseía un genoma de ARN, o tal vez de ARN/ADN, mientras que Patrick Forterre, de la Université de Paris-Sud, en Francia, propone un complejo esquema de transporte lateral de genes que involucra a los tres linajes y a sus virus. En cambio, un grupo de la Facultad de Ciencias de la UNAM, que ha podido identificar la presencia de dominios catalíticos de distintas ADN polimerasas en los tres linajes, cree haber identicado partes de la ADN polimerasa ancestral, que probablemente se derivó, como lo sugiere su homología con algunas ARN polimerasas, de una molécula que originalmente estaba involucrada en la replicación de genomas de ARN que poseían células más sencillas que precedieron al cenancestro mismo. Estas conclusiones, de hecho, son congruentes con los resultados preliminares obtenidos por Fredj Tekaia, Bernard Dujo, y Antonio Lazcano, que muestran que las secuencias más conservadas comunes a los genomas celulares disponibles codifican para secuencias que sintetizan, degradan o interaccionan con ARN --es decir, que se pueden reconocer, al menos en parte, evidencias de un pasado biológico anterior a la aparición del ADN mismo.
VI. Conclusiones
Al igual que ocurre con otras áreas del conocimiento, pocas tareas resultan tan complejas y difíciles en las ciencias biológicas como la reconstrucción del pasado. Si bien es cierto que en el marco de la teoría evolutiva es fácil aceptar la existencia de sistemas ancestrales más simples de los cuales descendemos los organismos actuales, su estudio no es una tarea fácil, sobre todo si, como ocurre con el caso del cenancestro, hay que remontarse a épocas precámbricas. La reconstrucción de estadios ancestrales es una tarea multi e interdisciplinario que tiene que recurrir, necesariamente, a actitudes eclécticas que apelen a metodologías que incluyen desde las discusiones sobre el medio ambiente primitivo, hasta la anotación automatizada de las secuencias de genomas completos. Los resultados pueden ser a veces confusos. Por ejemplo, la conservación de las secuencias de las ATPasas implica la existencia de membranas de lípidos y fosfolípidos, aunque desconocemos cual era la naturaleza química de éstas últimas. A pesar de éstas dificultades, resulta asombroso que, por otro lado, existan secuencias, estructuras y funciones, como las que participan en lectura y expresión de la información genética, que parecen haberse conservado a lo largo de miles de millones de años. La lectura de éstas crónicas moleculares que se han mantenido desde épocas Precámbricas nos permite asomarnos, aunque sea en forma limitada, al interior de los procesos biológicos de los microorganismos que antecedieron a todas las formas de vida que existen hoy en nuestro planeta, aunque no nos permiten predecir hacia donde va la biósfera. Después de todo, no hay que olvidar que los evolucionistas somos como el ave goofus que describió Jorge Luis Borges, y que vuela con la cabeza hacia atrás, porque no le interesa saber hacia donde va, sino de donde viene.















Fitz-Gibbon, S. T. and House, C. H. (1999) Whole genome-based phylogenetic analysis of free-living microorganisms. Nucleic Acid Res. 27: 4218-4222

Galtier, N.

Gogarten, J. P., et al (1989) Proc. Natl. Acad. Sci. USA 86: 6661-

Huet, J., Schnabel, R., Sentenac, A., and Zillig, W. (1983) Archaebacteria and eukaryotes possess DNA-dependent RNA polymerases of a common type. EMBO Jour. 2: 1291-1294

Iwabe et al. (1989) Proc. Natl. Acad. Sci. USA 86: 9355

Lazcano, A., Fox, G. E., and Oró, J. (1992) Life before DNA: the origin and evolution of early Archean cells. In R. P. Mortlock (ed) The Evolution of Metabolic Function (CRC Press, Boca Raton), 237-295

Margulis, L. (1993) Symbiosis in Cell Evolution: microbial communities in the Archaean and Proterozoic Eons (Freeman Co., New York)

Margulis, L. y Schwartz, K. V. (1985) Cinco Reinos: guía ilustrada de los phyla de la vida en la Tierra (Editorial Labor, Barcelona)

Miller, S. L. and Lazcano, A. (1995) The origin of life --did it occur at high temperatures?Journal of Molecular Evolution 41: 689-692

Snel, B., Bork, P., and Huynen, M. A. (1999) Genome phylogeny based on gene content. Nature Genetics 21:

Tekaia, F., Lazcano, A., and Dujon, B. (1999a) The genomic tree as revealed from whole proteome comparisons. Genome Research 9: 550-557

Tekaia, F., Dujon, B., and Lazcano, A. (1999b) Comparative genomics: products of the most conserved protein-encoding genes synthesize, degrade, or interact with RNA Abstracts of the 12th International Conference on the Origin of Life & 9th ISSOL Meeting (San Diego, California, USA, July 11-16, 1999) , Abstract c4.6, p. 53

Woese, C. R. and Fox, G. E. (1977) Phylogenetic structure of the prokaryotic domain: the primary kingdoms. Proc. Natl. Acad. Sci. USA 74: 5088-5090

Woese, C. R., Kandler, O., and Wheelis, M. L. (1990) Towards a natural system of organisms: proposal for the domains Archaea, Bacteria, and Eucarya. Proc. Natl. Acad. USA 87: 4576-

Zuckerkandl, E., and Pauling, L. (1965). Molecules as documents of evolutionary history. Journal of Theoretical Biology 8: 357-366

EL ULTIMO ANCESTRO COMUN III

IV ¿Un ancestro hipertermófilo?
Un árbol evolutivo sin raíz, como el que resulta de la comparación de las secuencias de ribonucleótidos de los ARNr 16/18S, no permite ni deducir el orden temporal en que han ocurrido los cambios evolutivos, ni cual de los tres linajes es el más antiguo. Estas preguntas pueden encontrar respuesta si se encuentra un organismo adicional que, por no pertenecer a ninguno de los tres linajes, se constituya en un grupo externo que permita deducir la polaridad de los procesos evolutivos. Sin embargo, todos los organismos conocidos pertenecen a alguno de los tres grandes reinos primarios, como los llamaron Woese y Fox, por lo cual no es posible establecer comparaciones con grupos externos.
La solución a éste problema estaba disponible desde hace unos cuarenta años, cuando Margaret Dayhoff hizo notar que un árbol de genes se puede enraizar con sus homólogos siempre y cuando las secuencias que lo componen sean un subconjunto que haya resultado de una duplicación génica que haya tenido lugar antes de la divergencia de los componentes del árbol. Es decir, mientras que hay genes, a los que llamamos ortólogos, que han ido divergiendo como resultado de los procesos de especiación de los organismos que los portan (como ocurre, por ejemplo, con el citocromo C), otros más, llamados parálogos, divergen luego de una duplicación de genes que no coincide con un evento de especiación. Debido a que los genes del 16/18S ARN ribosomal son ortólogos, ninguno de ellos sirve como grupo externo para enraizar un árbol construídos con éstas secuencias. (En realidad, se conoce una excepción, los plasmodia, eucariontes unicelulares patógenos, pero la similitud entre las secuencias es tal que no permite resolver en detalle la posición de la raíz del árbol).
Sin embargo, hace más de diez años dos grupos de investigadores, uno estadounidense (Gogarten et al., 1989) y otro japonés (Iwabe et al., 1989) se percataron de manera independiente y simultánea que existían dos conjuntos de genes parálogos que eran el resultado de un proceso de duplicación y divergencia que se habían dado antes de la separación del cenancestro en los tres grandes linajes. Estos genes parálogos son, por una parte, los de las dos subunidades hidrofílicas (α y β) de las ATPasas, que fueron estudiadas por Gogarten et al., y por otra los dos factores de elongación (EF-Tu y EF-G), que participan en la síntesis de proteínas y que fueron analizados por el grupo de Iwabe et al. (1989). Los árboles construídos con los dos tipos de secuencias de las ATPasas mostraban que las arqueobacterias y los eucariontes eran grupos hermanos, y lo mismo ocurre con las filogenias construídas con los factores de elongación. La consistencia entre ambos árboles permitía concluir que de los tres linajes celulares las bacterias eran el grupo más antiguo, mientras que los eucariontes y las arqueobacterias formaban una rama que mostraba su cercanía filogenética (Figura 5).
Estos resultados, que corroboraban la relación entre el nucleocitoplasma, eucariontes y las arqueobacetrias que Zillig y otros habían propuesto desde tiempo atrás, parecieron resolver el problema de la naturaleza del cenancestro: se trataba, claramente, de una eubacteria. Sin embargo, la disponibilidad de los árboles enraizados inauguró dos controversias igualmente estridentes sobre la evolución celular que persisten hasta nuestros días. Uno de estos debates tiene que ver con las grandes categorías taxonómicas en las que podemos agrupar a los seres vivos: si bien es cierto que la teoría endosimbiótica sobre el origen de los eucariontes permite reconstruir sin problema las fronteras que separan a los cinco grandes reinos de la vida según el esquema que propuso Whittaker y desarrollaron Margulis y Schwartz (1985), no era fácil conciliar esta visión de la biósfera con el esquema de los tres linajes celulares que se deduce del estudio del ARNr 16/18S. Al aceptar el enraizamiento del árbol universal, Woese, Khandler y Wheelis (1990) decidieron abandonar las taxonomías tradicionales y adoptar una visión nueva que separaba a los seres vivos en tres grandes dominios: las Archaea (las arqueobacterias), las Bacteria (formado por las eubacterias), y los Eucarya (constituído por todos los organismos con células nucleadas). El trabajo de Woese, Kandler y Wheelis fue de inmediato rechazado por Lynn Margulis, Ernst Mayr y otros evolucionistas y taxónomos, que señalaron no solamente su caracter reduccionista, sino también las dificultades para conciliar esta visión de la biósfera con el transporte horizontal de genes, la nomenclatura tradicional, y los niveles de organización biológica que hacen de una célula eucarionte, por ejemplo, un sistema mucho más complejo que un procarionte.
El otro gran debate abierto por el enraizamiento del árbol del ARNr muy pronto se extendió a los estudios sobre el origen de la vida misma. Si bien es cierto que ya Woese y algunos de sus colaboradores habían señalado que en las filogenias del ARNr 16/18S los organismos termófilos e hipertermófilos se colocaban en la parte inferior de las ramas de las eubacterias y las arqueobacterias, la posición basal de los hipertermófilos se hizo perfectamente evidente en el árbol propuesto por Gogarten, Iwabe y sus colegas (Figura 5). La interpretación más sencilla (pero no necesariamente correcta) de la distribución filogenética de los hipertermófilos era que el cenancestro también había sido uno de ellos. Más aún, la extrapolación del estilo de vida hipertermófilo a lo largo del tronco del árbol ha llevado a algunos a afirmar que el origen de la vida mismo debe haber tenido lugar en ambientes extremos como los que existen en las chimeneas submarinas o en la cercanía de los volcanes.
Sin embargo, existen interpretaciones alternativas: en primer lugar, aunque no tenemos evidencia alguna del ambiente en el que surgió la vida, es evidente que en un ambiente caliente los compuestos orgánicos que eventualmente dieron origen a los primeros seres vivos hubieran tenido vidas medias muy cortas; en segundo lugar, los hipertermófilos son organismos antiguos, no primitivos; es decir, a nivel molecular sus procesos esenciales son básicamente los mismos que los de los mesófilos, lo que abre la posibilidad de que la hipertermofilia sea una adaptación secundaria. Y, por último, no hay que olvidar que mientras que las filogenias moleculares están basadas en secuencias de aminoácidos o nucleótidos, los primeros seres vivos seguramente carecían de proteínas, ribosomas, y de muchas más de las estructuras cuyos componentes macromoleculares aparecieron en el curso de la evolución biológica; es decir, son productos de un regimen evolutivo en el que operan mecanismos darwinistas totalmente distintos a los que operarían en el mundo fisicoquímico de las moléculas sintetizadas abióticamente, en donde la persistencia (o no) de los compuestos depende únicamente de su estabilidad (Miller y Lazcano, 1995).
Uno de los argumentos más sólidos en contra de la naturaleza hipertermófilica del último ancestro común, empero, proviene de un modelo de evolución molecular desarrollado por Nicolas Galtier y sus colegas de las universidades de Montpellier y de Lyon. Aunque todas las filogenias moleculares están construídas con algoritmos que suponen que la probabilidad de substitución de los nucleótidos es esencialmente la misma, Galtier y sus colaborados hicieron uso de análisis estadísticos muchos más refinados y supusieron un proceso en donde en cada rama de cada linaje las substituciones son variables. Por otra parte, este grupo francés ya se había percatado de que el ARNr de los hipertermófilos es mucho más rico en enlaces G:C, que forman tres puentes de hidrógeno, que en el parejas A:U, en donde sólo hay dos puentes de hidrógeno. Al analizar sus bases de datos extrapolando al pasado con su modelo de substitución de ribonucleótidos, pudieron reconstruir una secuencia ancestral de ARNr 16S para el último ancestro común que tenía valores de G:C típicamente mesófilos.

EL ULTIMO ANCESTRO COMUN II

II. Los grandes linajes celulares
En 1904 George H. F. Nutall, un destacado fisiólogo británico de origen estadounidense publicó un libro en donde resumía años de trabajo durante los cuales había comparado las reacciones inmunológicas entre los sueros sanguíneos de distintas especies animales, con el propósito de construir árboles evolutivos basados no en información paleontológica o anatómica sino molecular. Sin embargo, no fue sino hasta 1965 cuando Emile Zuckerkandl y Linus Pauling publicaron un trabajo en donde describían con todo cuidado como la comparación de secuencias de aminoácidos o de nucleótidos permitía no sólo la construcción de filogenias moleculares, sino también datar los procesos de especiación incluso en ausencia de información paleontológica. Durante cerca de diez años este enfoque permitió no solamente comparar proteínas como las hemoglobinas, el citocromo C, las ferrodoxinas y otras más, sino también construir árboles evolutivos que podían incluir organismos tan distintos entre sí como las bacterias, los hongos y los mamíferos marinos, lo cual hubiera sido imposible con los criterios morfológicos tradicionales.
En 1977 Carl R. Woese y algunos de sus colaboradores de la Universidad de Illinois, en los EEUU, publicaron un trabajo que resumía el resultado de las comparaciones de fragmentos del ARN de la subunidad pequeña de los ribosomas de diez especies de metanógenas, pequeños procariontes estrictamente anaerobios y sin citocromos que, como su nombre lo indica, liberan metano como resultado de un proceso quimiosintético que les permite formar compuestos orgánicos a partir de dióxido de carbono. Al fragmentar el ARN ribosomal de las metanógenas con enzimas que partían la molecula y comparar los trozos resultantes con los de Bacillus, enterobacterias, y cianobacterias (que son tres tipos de bacterias bastante distantes entre sí) el grupo de Woese descubrió, para su sorpresa, que la distancia evolutiva entre estos tres grupos de bacterias era mínima respecto a la que las separaba del conjunto de las metanógenas. Es decir, la comparación de los fragmentos del ARN ribosomal permitía deducir la existencia de una divergencia biológica extraordinariamente antigua que dividía a los procariontes en dos grupos alejados entre sí. Pocos meses mas tarde Woese y George E. Fox, otro de sus colaboradores, publicaron un trabajo adicional que no sólo confirmaba los resultados anteriores, sino que mostraba también como la comparación de los ARN ribosomales de distintos eucariontes (conocidos como ARNr 18s, por sus dimensiones) con los del ARNr 16S de las metanógenas, por una parte, y bacterias como Escherichia coli y Bacillus firmus por otra (Figura 4). Es decir, la comparación de los fragmentos del ARNr 16/18S mostraba que los organismos estudiados, lejos de dividirse en plantas y animales o en procariontes y eucariontes, en realidad se agrupaban en tres grandes linajes o reinos primarios que divergían de un ancestro común (Woese y Fox, 1977). ¿Qué ocurrió durante la historia temprana de la vida, que llevó a la separación de los seres vivos en éstos tres grandes líneas evolutivas? ¿Cómo conciliar éstos árboles evolutivos con los esquemas taxonómicos tradicionales? ¿Cuál era la naturaleza de los ancestros de estos tres grandes grupos de organismos? ¿Cúando y dónde vivieron éstos ancestros?
III. La búsqueda del progenote
Aunque al principio la mayoría de los microbiólogos pareció no prestar atención a los resultados obtenidos por el grupo de Woese, éste comenzó a estudiar otros procariontes extremófilos, como las halófilas, que viven en medios aerobios de una enorme salinidad, y otros como Sulfolobus y Thermoplasma, que viven a temperaturas elevadas y condiciones muy ácidas. El análisis del ARN ribosomal, que para entonces ya se podía llevar a cabo comparando con precisión y rapidez todos y cada uno de los monómeros que forman éstas moléculas, mostró que ambos grupos pertenecían al mismo linaje que las metanógenas (que fue bautizado como el grupo de las arqueobacterias, para distinguirlas de las procariontes con los que estamos familiarizados, o eubacterias) lo que vino a reforzar la hipótesis de que los seres vivos estaban divididos en tres grandes reinos primarios que habían divergido en épocas muy tempranas.
Como argumentaron Woese y Fox desde 1977, es evidente que aunque los tres linajes celulares están separados por una enorme distancia evolutiva, todos ellos provienen de un ancestro común --pero la existencia de diferencias nada desdeñables, por ejemplo, en las modificaciones que sufren las bases de los ARNr y ARNt en cada uno de estos tres linajes les llevó a sugerir que el ancestro común era una entidad mucho mas simple que cualquier procarionte actual, en donde operaba una versión aún rudimentaria de la expresión de la información genética. Es decir, Woese y Fox supusieron que en el punto la trifurcación de los tres linajes celulares había existido una entidad biológica hipotética a la que llamaron progenote y en la cual, a diferencia de lo que ocurre con los organismos contemporáneos, la separación evolutiva entre genotipo y fenotipo aún no se había completado del todo.
No era fácil aceptar ésta idea. Es evidente que los organismos contemporáneos debieron haber sido precedidos por sistemas mucho más simples, pero la probabilidad de que el último ancestro común de las eubacteria, las arqueobacterias y el nucleocitoplasma de los eucariontes fuera un progenote resultaba difícil de conciliar con la complejidad de los procesos moleculares básicos de cada uno de los linajes. Por otro lado, aunque se pueden proponer esquemas evolutivos que conduzcan a la separación simultánea de tres o mas linajes, los eventos de especiación suelen ser dicotómicos, es decir, de un grupo ancestral se derivan dos. Por último, el grupo de Wolfram Zillig, un biólogo molecular alemán, demostró mediante reacciones inmunológicas cruzadas no sólo que las ARN polimerasas de los eucariontes eran mas parecidas en número y estructura a las de las arqueobacterias, que cualquiera de ellas a la de las eubacterias. Ello sugería la existencia de una afinidad evolutiva entre arqueobacterias y el nucleocitoplasma, es decir, que ambos provinieran de una misma rama. Sin embargo, el árbol de los ARNr 16/18S obtenido por Woese y Fox carece de raíz, es decir, no posee una polaridad que nos indique el orden temporal en que divergieron los tres linajes. En otras palabras, la representación gráfica de las relaciones entre las secuencias de los ARNr no permite deducir cuál de los tres fenotipos es el más antiguo.
La biología evolutiva es hija de la biología comparada. Es decir, la comparación de las diferencias y similitudes que existen entre los tres linajes permite, en principio, conocer no sólo la relación evolutiva que guardan entre ellos, sino también las características de su ancestro, al que Walter Fitsch designó como cenancestro, un neologismo acuñado haciendo uso de un prefijo griego derivado de la palabra koiné, que quiere decir común. Aunque hace una década las bases de datos no poseían la riqueza de las de nuestros días poseían la información suficiente para intentar asomarse a los rasgos del último ancestro común a las arqueobacterias, eubacterias y eucariontes. A pesar de las limitaciones de ésta metodología (y que incluyen, en forma destacada, el problema del transporte horizontal de genes), los resultados fueron notables: todo indicaba que el cenancestro poseía, entre otros, (a) un sistema de transcripción y traducción de tipo moderno, que incluía ribosomas con proteínas, factores de transcripción y una ARN polimerasa ADN-dependiente oligomérica; (b) metabolismo energético dependiente de ATPasas asociadas a membranas; (c) biosíntesis de aminoácidos, nucleótidos, y coenzimas; y (d) presencia de un genoma de ADN (Lazcano et al., 1992). Todo indica que el último ancestro común a los tres linajes celulares (y, por lo tanto, a los todos los seres vivos) tenía la complejidad equivalente a la de cualquier procarionte contemporáneo, y no era un progenote.

EL ULTIMO ANCESTRO COMUN I

Antonio Lazcano Araujo
Facultad de Ciencias, Universidad Nacional Autónoma de México, E-mail: alar@hp.fciencias.unam.mx

1. Introducción
Aunque Charles Darwin afirmó en 1859 "es probable que todos los seres vivos que hay en la Tierra desciendan de un mismo ancestro", no dió muchos detalles sobre cuáles podrían ser las características de ese ancestro cuya existencia era necesario reconocer como parte de su esquema evolutivo. Uno de los primeros en emprender esta tarea fue Ernst Haeckel, un naturalista alemán cuya devoción por la obra de Darwin corría paralela a su preocupación por romper con el esquema taxonómico tradicional que dividía a los seres vivos en plantas y animales. Convencido de que los microorganismos formaban un grupo aparte de donde habían surgido tanto el Reino Animal como el Vegetal, Haeckel no sólo formalizó en 1866 su propuesta de un tercer reino, el de los Protista (cuyas fronteras, hay que decirlo, modificó varias veces a lo largo de su carrera, pero siempre dejando dentro a las bacterias) sino que también afirmó que los ancestros de plantas y animales habían sido microorganismos como las euglenas, pequeños protistas que en presencia de la luz llevan a cabo la fotosíntesis y en la obscuridad son heterótrofas (Figura 1); es decir, se comportan a veces como plantas, a veces como animales.
No fue sino hasta 1925 cuando Edouard Chatton, un microbiológo francés que unía a su profundo conocimiento de los protistas una sensibilidad considerable hacia los estudios de la bioquímica, comenzó a hablar de las bacterias y cianobacterias como grupo particular de microorganismos, al que llamó protistas procariontes, y que separó de las algas, los protistas y los hongos, a los que bautizó como protistas eucariontes. Atrás de la nomenclatura que propuso Chatton, que muy pronto se simplificó, subyacía una barrera biológica mucho mas profunda que la que separa a las plantas de los animales o a los microbios de los organismos visibles a simple vista: los procariontes, que se definen como aquéllos organismos que carecen de núcleo, y los eucariontes, que presentan al menos una membrana nuclear bien definida (Figura 2) (Margulis y Schwartz, 1985).
¿De donde surgieron las dos clases de organismos? Al igual que Haeckel, muchos biólogos suponían que los procariontes eran los organismos más antiguos, pero no fue sino hasta 1967 cuando Lynn Margulis propuso que las células eucariontes eran en realidad minúsculas comunidades microbianas que habían resultado de una serie de eventos endosimbióticos, es decir, que las células nucleadas habían sido precedidas por procariontes que luego se asociaron simbióticamente. Aunque la idea de que mitocondrias y cloroplastos eran descendientes de bacterias de vida libre había circulado en algunos medios científicos desde finales del siglo XIX, Margulis (1993) no sólo revivió en forma independiente la teoría endosimbiótica, sino que la articuló y apoyó con una serie de evidencias morfológicas, bioquímicas, genéticas e incluso geológicas tan contundentes, que sus puntos de vista terminaron por ser aceptados incluso por sus críticos mas severos.
Cuando Margulis propuso por primera vez su teoría endosimbiótica no estaba clara la naturaleza biológica del hospedero que había alojado a las las bacterias que luego se convirtieron en mitocondrias, cloroplastos y undulipodia, es decir, no se tenía una idea precisa sobre el origen del nucleocitoplasma. Los micoplasma, que son parásitos que carecen de pared celular, parecían ser buenos candidatos, debido a que su metabolismo es estrictamente fermentativo (como es el del citoplasma eucarionte), ya que la ausencia de pared hubiera facilitado el ingreso de los endosimbiontes. La idea de la endosimbiosis fue ganando cada vez más adeptos, y muy pronto se convirtió en una de las bases de la clasificación de los seres vivos en cinco grandes reinos. Así, a pesar de que para entonces era cada vez más evidente la existencia de algunas diferencias en los procesos de replicación y expresión genética entre los procariontes y los eucariontes, hacia mediados de la década de los 1970's la mayoría de los biólogos pensaban que todos los componentes de las células nucleadas provenían de un mismo linaje bacteriano (Figura 3). Como veremos mas adelante, el estudio de la estructura y evolución de los ribosomas cambió radicalmente ésta situación, abriendo un debate cuyo final no es fácil adivinar.

miércoles, 14 de noviembre de 2007

EL SABER CIENTÍFICO PARTICULAR III



LA INVESTIGACIÓN CIENTÍFICA ES METODICA
Los investigadores no tantean en la oscuridad; saben lo que buscan y como encontrarlo. El planeamiento de la investigación no excluye el azar; solo que, al hacer un lugar a los acontecimientos imprevistos, es posible aprovechar la interferencia del azar y la novedad inesperada.
Todo trabajo de investigación se funda sobre el conocimiento anterior, y en particular sobre las conjeturas mejor confirmadas. Más aún, la investigación procede conforme a reglas y técnicas que han resultado eficaces en el pasado, pero que son perfeccionadas continuamente, no solo a la luz de nuevas experiencias, sino también de resultados del examen matemático.
La ciencia fáctica emplea el método experimental concebido en un sentido amplio. Este método consiste en el test empírico de conclusiones particulares extraídas de hipótesis generales. Este tipo de verificación requiere la manipulación, la observación y el registro de los fenómenos; requiere también el control de las variables o factores relevantes.

EL CONOCIMIENTO CIENTÍFICO ES SISTEMATICO
Es un sistema de ideas conectadas lógicamente entre si, y están ordenadas mediante la relación. Esta conexión puede calificarse de orgánica en el sentido de que la sustitución de cualquiera de las hipótesis básicas produce un cambio radical en la teoría o grupo de teorías.
-El fundamento de una teoría:
Es un conjunto de principios, o hipótesis de cierto grado de generalidad y, por consiguiente de cierta fertilidad lógica.
-El carácter matemático del conocimiento científico:
Es fundado, ordenado y coherente es lo que lo hace racional.
Las revoluciones científicas consisten en la sustitución de hipótesis de gran alcance (principios) por nuevos axiomas y en el reemplazo de teorías enteras por otros sistemas teóricos.

EL CONOCIMIENTO CIENTÍFICO ES GENERAL
Ubica los hechos singulares en pautas generales. El científico se ocupa del hecho singular en la medida en que este es miembro de una clase o caso de una ley y presupone que todo hecho es clasificable y legal.

Uno de los principios antológicos que subyacen a la investigación científica es que la variedad y aun la unicidad en algunos respectos son compatibles con la uniformidad y la generalidad.
El lenguaje científico contiene términos generales que se refieren a clases de hechos a generalización es el único medio que se conoce para adentrarse en lo concreto, para apresar la esencia de las cosas, sus cualidades y leyes esenciales.

EL CONOCIMIENTO CIENTÍFICO ES LEGAL
Busca leyes de la naturaleza y de la cultura , este inserta los hechos singulares en pautas generales llamadas leyes naturales o leyes sociales. En la medida en que la ciencia es legal, es esencialista: Intenta llegar a la raíz de las cosas.
Las leyes de la física proveen la base de las leyes de las combinaciones químicas: las leyes de la fisiología explican ciertos fenómenos psíquicos; y las leyes de la economía pertenecen a los fundamentos de la sociología.

LA CIENCIA ES EXPLICATIVA
Intenta explicar los hechos en términos de leyes. La ciencia deduce proposiciones relativas a hechos singulares a partir de leyes generales y de deduce las leyes a partir de enunciados homológicos aún más generales (principios). Hay divers9os tipos de leyes científicas y hay una variedad de tipos de explicación científica: morfológicas, cinemáticas, dinámicas, de composición, de conservación, de tendencias, de asociación, globales, dialécticas, teológicas, etc.
La historia de la ciencia enseña que las explicaciones científicas se corrigen o descartan sin cesar.

TIPOS DE CONOCIMIENTO
Conocimiento vulgar: Sensitivo, Superficial, Subjetivo, Dogmático, Estático, Particular, Asistemático, Inexacto, No acumulativo.
Conocimiento Científico: Racional, Fáctico.,Objetivo, Metódico, Auto-Correctivo o Progresivo, General.,Sistemático, Acumulativo

Conocimiento Científico
Llamado Conocimiento Crítico, no guarda una diferencia tajante, absoluta, con el conocimiento de la vida cotidiana y su objeto puede ser el mismo. Intenta relacionar de manera sistemática todos los conocimientos adquiridos acerca de un determinado ámbito de la realidad.
Es aquel que se obtiene mediante procedimientos con pretensión de validez, utilizando la reflexión, los razonamientos lógicos y respondiendo una búsqueda intencional por la cual se delimita a los objetos y se previenen los métodos de indagación.
Conocimiento Vulgar:
· Este se adquiere por medio del azar.
· No es verificable ni subjetivo. Esta sujeto a nuestra experiencia y modo de sentir.
· Es dogmático porque se apoya en creencias y respuestas no verificables.
· Es inexacto, sin definiciones son pocos precisos.
· Es subjetivo.
· Es vago sin definiciones.
b) Conocimiento Científico:
· Este se adquiere mediante la razón.
· Es verificable, puede estar basado en la experiencia, pero se puede demostrar.
· Es objetivo.
· Es sistemático, se adquiere mediante el conocimiento acumulativo, porque sirve de base para otros entendimientos.
· Es sistemático, porque se adquiere con procedimientos.


fin...

EL SABER CIENTÍFICO PARTICULAR II



CONOCIMIENTO CIENTÍFICO

Todos los hombres poseen mayores o menores conocimientos según el grado y modo de participación en la totalidad de la cultura. Los dos grandes modos del conocimiento son El saber experiencial y El saber científico.
El conocimiento experiencial es el que se adquiere en la experiencia cotidiana. Se trata de conocimientos superficiales. Es el modo común, corriente y espontáneo del conocer. El se aprende sin haberlo buscado o estudiado.
El saber científico es aquel conocimiento que se obtiene mediante procedimientos metódicos, con pretensión de validez, utilizando la reflexión sistemática, los razonamientos lógicos y respondiendo a una búsqueda intencionada.
El conocimiento científico se vale estrictamente del método científico, o sea se delimita el problema, se diseña la investigación, se prevén medios e instrumentos de indagación y se procede a un análisis de todo lo estudiado.
En suma el conocimiento científico desborda la apariencia y trata de indagar las causas de los hechos que considera.

CUALIDADES DEL CONOCIMIENTO CIENTÍFICO
o Procura establecer una conexión universal de los fenómenos.
o Para que el conocimiento tenga carácter científico, es necesario elaborar instrumentos que garanticen y controlen la validez de los conocimientos adquiridos.
o El conocimiento científico descubre los hechos y fenómenos en el devenir de la realidad.

EL CONOCIMIENTO CIENTÍFICO ES FACTICO
La ciencia fáctica desarrolla, encierra y nos muestra los hechos tales como son. Esta ciencia parte de hechos reales y ayuda a profundizar más en estudios e investigaciones.
Los datos empíricos son los resultados de enunciados fácticos y se desarrollan con teorías precisas y exactas.
Un hecho es analizado y a través de datos buscamos la finalidad principal de la investigación, que por medio de técnicas y teorías podemos trazarla.

EL CONOCIMIENTO CIENTÍFICO TRASCIENDE LOS HECHOS
El conocimiento científico juega un rol importante con los hechos porque éste los produce, explica y los descarta.
Los científicos adoptan conocimientos reales y no solo se limitan a hechos observados: pretenden investigar como son las cosas realmente, crean cosas nuevas como compuestos, pautas de conducta, etc.
Los científicos rechazan hechos que ellos mismos creen no vale de nada ser desarrollados, ellos (los científicos) no se consideran sabios, ni se halagan mucho de su experiencia, sino que se basan en crearse así mismo una inteligencia y pensamiento ideal, a través de la experiencia colectiva y por medio de la teoría.
El conocimiento científico racionaliza la experiencia, la describe por medio de sistemas que van paso por paso, creando así conceptos para dividirlos en partes y saber diferenciarlos.
De la observación a lo que llamamos teoría la ciencia se desarrolla, y a través de esto pude predecir la resistencia real de cosas y procesos ocultos.

LA CIENCIA ES ANALÍTICA
La ciencia analítica descompone cada elemento o conjunto de cosas que pueden abarcar y formar un tipo de problema para así poder llegar mas fácil al resultado de las cosas.
Un problema es una cuestión practica que necesita ser resuelta, a través de datos e incógnitas que el conocimiento científico nos facilita podemos entender mucho de ellos y así poder con facilidad resolverlos. A veces un problema nos parece fácil, pero lo vamos desarrollando la situación se complica, a medida en que la investigación avance, el alcance del resultado se amplia en grandes posibilidades.
En el análisis de un problema, no es tanto el objetivo que construimos, sino que la construcción de teorías que se acerquen al resultado constituye el mayor esfuerzo para nosotros.
La descomposición de un problema y de fenómenos observados abarcan y constituyen de manera directa el mecanismo de descubrimiento en una investigación, porque con esta técnica se desglosa cada una de las partes que constituye un problema y paso por paso es mas fácil ir resolviendo con conocimiento ya establecido y listo para ser utilizado.

LA INVESTIGACIÓN CIENTÍFICA ES ESPECIALIZADA
Una consecuencia del enfoque analítico de los problemas es la especialización. No obstante la unidad del método científico, su aplicación depende, en gran medida, del asunto; esto explica la multiplicidad de técnicas y la relativa independencia de los diversos sectores de la ciencia.
Sin embargo, es necesario no exagerar la diversidad de las ciencias al punto de borrar su unidad metodología.
La especialización no ha impedido la formación de campos interdisciplinarios, tales como la biofísica, la bioquímica, la psicología social, etc.
La especialización tiende a estrechar la visión del científico individual.

EL CONOCIMENTO CIENTÍFICO ES CLARO Y PRECISO
Sus problemas son distintos, sus resultados son claros. El conocimiento ordinario, en cambio, usualmente es vago e inexacto; en la vida diaria nos preocupamos poco por dar definiciones precisas, descripciones exactas, o mediciones afinadas. La ciencia torna preciso lo que el sentido común conoce de manera nebulosa. El conocimiento científico procura la precisión; nunca esta enteramente libre de vaguedades, pero se las ingenia para mejorar la exactitud; nunca esta del todo libre de error, pero posee una técnica única para encontrar errores y para sacar provecho de ellos.
La claridad y la precisión se obtienen en ciencia de las siguientes maneras:
a) Los problemas se formulan de manera clara: lo primero, y a menudo lo más difícil, es distinguir cuales son los problemas.
b) La ciencia define la mayoría de sus conceptos: algunos de ellos se definen en términos de conceptos no definidos o primitivos, otros de manera implícita.
c) La ciencia crea lenguajes artificiales inventando símbolos (palabras, signos matemáticos, símbolos químicos, etc.) a estos se le atribuye significados determinados por medio de reglas de designación.
d) La ciencia procura siempre medir y registrar los fenómenos. Los números y las formas geométricas son de gran importancia para el registro.



EL CONOCIMIENTO CIENTÍFICO ES COMUNICABLE

Es expresable, no es privado sino publico. El lenguaje científico comunica información a quien haya sido adiestrado para entenderlo.
La comunicabilidad es posible gracias a la precisión; y es a su vez una condición necesaria para la verificación de los datos empíricos y de las hipótesis científicas. Aun cuando, por razones comerciales o políticas, se mantengan en secreto durante un tiempo algunos trozos del saber, deben ser comunicables en principio para que puedan ser considerados como científicos. La comunicación de los resultados y de las técnicas de la ciencia no solo perfecciona la educación general sino que multiplica las posibilidades de su confirmación.
Los científicos consideran el secreto en materia científica como enemigo del progreso de la ciencia; la política del secreto científico es, en efecto, el más eficaz originador del estancamiento en la cultura. En la tecnología y en la economía.

EL CONOCIMIENTO CIENTÍFICO ES VERIFICABLE
Debe aprobar el examen de la experiencia. A fin de explicar un conjunto de fenómenos, el científico inventa conjeturas fundadas de alguna manera en el saber adquirido. Sus suposiciones pueden ser cautas o audaces, simples o complejas; en todo caso, deben ser puestas a prueba.
La experimentación puede calar más profundamente que la observación, porque efectúa cambios en lugar de limitarse a registrar variaciones: aísla y controla las variables sensibles o pertinentes.
La prescripción de que las hipótesis científicas deben ser capaces de aprobar el examen de la experiencia es una de las reglas del método científico.
Las técnicas de verificación evolucionan en el curso del tiempo; sin embargo, siempre consisten en poner a prueba consecuencias particulares de hipótesis generales (entre ellas, enunciados de leyes). Siempre se reducen a mostrar que hay, o que no hay, algún fundamento para creer que las suposiciones en cuestión corresponden a los hechos observados o a los valores medidos.
continuará...

EL SABER CIENTÍFICO PARTICULAR I

Autora: Natalia Lorena Parracio
A través de tres entregas consecutivas nos introduciremos en este apasionante tema extraído de www.alipso.com
Ciencia (en latín scientia, de scire, ‘conocer’), término que en su sentido más amplio se emplea para referirse al conocimiento sistematizado en cualquier campo, pero que suele aplicarse sobre todo a la organización de la experiencia sensorial objetivamente verificable.

Dentro del saber científico, distinguimos niveles que se evalúan conforme a dos princi­pios: según el orden de causalidad que estudian y según el fin que pretenden.
En esta oportunidad, nos vamos a circunscribir al primer criterio (orden de causalidad...) y básicamente a las ciencias particulares.
Si bien los objetivos explícitos de esta unidad son “reconocer las características comunes de las ciencias particulares” y clasificar a las mismas “según sus objetos”, el ánimo de fondo nos tienta a desmitificarlas. Esto no significa, tratar de condenarlas, ni oponerse a ellas o subestimarlas
Esto incluye mostrar lo limitadas que son sus metodologías, evidenciar la parcialidad e incompletud de sus objetos (en tanto “perspectiva o punto de vista desde el cual se enfoca la realidad”) y estimar , criticar, de tal manera, a las ciencias particulares.

Una por una, todas las características de las ciencias particulares aluden a la incompletud y limitación propia de las actividades del hombre. Así, la generalización no alcanza para “una verdadera intuición de la esencia”, arañando lo universal de manera reducida, si­nóptica -y hasta diría circunstancial-.
De igual manera, las propiedades contigentes que enuncian no admiten que este tipo de ciencia pueda “elevarse inductivamente hasta una verdad necesaria”. Y, como hemos visto en la unidad precedente, una de las cualidades del saber científico es el carácter necesario de las verdades que lo constituyen Asimismo, los saberes hipotéticos son explicaciones provisorias, factibles y tentativas, (“nin­guna hipótesis es la única posible, la mera presencia del fenómeno que se estudia no basta para fundamentarla”.) Y el método experimental es tan artificial como un automóvil
Las tres últimas características aluden a lo restringidas que son las ciencias particulares, y también a un desarrollo científico de consecuencias imprevisibles. Por un lado, la expre­sión en lenguaje matemático es una “traducción” alejada de la esencia de las cosas, reduc­cionista y simplificadora como toda traducción. Además la especialización “conlleva cierto riesgo de perder la perspectiva del conjunto del saber”, cuando el hombre debería intentar acercarse a ella.
Por último, la orientación de la ciencia hacia “lo accidental y contigente” produjo un de­sarrollo científico de graves consecuencias cognitivas –pues se confunde el funciona­miento de las cosas con la verdad- y prácticas, tal como se ejemplifica con las armas de guerra.
Si hasta el último argumento, la discusión sobre las ciencias particulares parece tan sólo una cues­tión intelectual; en las consecuencias destructivas del desarrollo tecnológico queda claro que es un problema también práctico. No existe separación entre la esencia y la materiali­dad de las cosas, pues la ciencia se vuelve destructiva debido a los principios que la rigen: ignorancia de lo general velada con saberes particulares, y carencia de espiritualidad.
Finalmente, hablaremos de que las ciencias se discriminan entre sí según su objeto formal (“punto de vista” desde donde orientamos la realidad y su estudio). Cada ciencia tiene su genero, materia y objeto pro­pios. Sea cual fuese el caso, “la abstracción” se manifesta por tres medios: de primero, se­gundo o tercer grado que, a su vez, producen los “tres grandes grupos de ciencias”.
1. Abstracción de primer grado (no distigue los rasgos particulares sólo las esencias materiales). Ámbito de las ciencias de la naturaleza.
2. Abstracción de segundo grado (no distigue los rasgos particulares de los individuos, ni las distinciones cualitativas, solamente la cantidad). Matemática.
3. Abstracción de tercer grado (se adjudica a las realidades no meramente materiales). Ciencias humanas.
Estas abstracciones no son más que miradas parciales de fenómenos a los que nunca se podrá entender por completo; quizás porque si bien el hombre tiende al saber, y es más, al saber abso­luto (como si con eso acariciase lo infinito, lo celestial) no es atributo del hombre hacerlo.
Justamente la referencia a las causas segundas, que nombramos al comienzo, se realiza a partir de operaciones específicas de cada ciencia: determinismo, explicación por “sumatoria o relación de partes” y experiencia externa en las ciencias de la naturaleza; conocimiento tan seguro como limitado en la matemática; complejidad y búsqueda de regularidades en las ciencias humanas.

Características de las ciencias particulares:

1. Se basan en una abstracción imperfecta (generalización)
2. Enuncian verdades contingentes
3. Son saberes hipotéticos
4. Utilizan el método experimental
5. Tienden a expresarse en lenguaje matemático
6. Brindan aplicaciones prácticas en términos de tecnología
7. Son especializadas

continuará...

viernes, 9 de noviembre de 2007

A PROPÓSITO DE LA LEY DE MURPHY


Una reflexión de Christian TRIGOSO

Permítaseme en esta oportunidad explorar el controvertido mundo de la famosa LEY DE MURPHY, aquella vuelta de nuestra corteza cerebral que nos permite vislumbrar el horizonte de los sucesos atendiendo a la “autonomía” de los mismos, hechos que parece que se conjugaran en un tramado de autodeterminación e independencia “inexplicablemente” conducidos. Atrévase a desafiar a esta ley y seguramente el castigo propinado por los dioses será directamente proporcional a la tenacidad con la que uno se oponga a la demostración experimental de estas leyes.

El señor Murphy está escondido en las gavetas de nuestros laboratorios, se aproxima a las ventanas de nuestros estudios, se entremezcla con los estudiantes de pre y post grado, se cobija en nuestras estufas de incubación, se deleita con los colores de nuestros reactivos y con las formas de nuestros materiales de vidrio.

Vale la pena tenerle miedo ? Vale la pena anticiparse a sus designios ? Es mejor adoptar una conducta liberal con una pizca de razón y crítica.

Permítame presentarle un pequeño compendio de las partes que la inteligencia colectiva han adaptado a nuestro quehacer diario y que ejemplifican esta famosa ley (no son mías pero que gusto por hacerlas mías cuando me rodean y me encandilan en la obscuridad de mis temores):

Ley de la Relatividad Documentada:
Nada es tan fácil como parece, ni tan difícil como lo explica el manual.

Ley de la Administración del Tiempo:
Todo lleva más tiempo que todo el tiempo que Ud. tiene disponible.
Ley de la Búsqueda Indirecta:
1) El modo más rápido de encontrar una cosa, es buscar otra.
2) Usted siempre encontrará aquello que no está buscando.

Ley de la Telefonía:
1) Cuando se comunica: Si usted tiene bolígrafo, no tiene papel. Si tiene papel, no tiene bolígrafo. Si tiene ambos, nadie contesta.
2) Cuando usted marca números de teléfono equivocados, nunca están ocupados.
3) Todo cuerpo sumergido en una bañera, hace sonar el teléfono.
Ley de la Gravedad:
Si usted consigue mantener la calma mientras a su alrededor todos están perdiendo la suya, probablemente usted no entiende la gravedad de la situación.
Ley de la Experiencia:
Sólo sabe la profundidad del pozo quien cae en él.
Reglamento del Especialista:
1) Especialista es aquella persona que sabe cada vez más sobre cada vez menos.
2) Súper especialista es el que sabe absolutamente todo sobre absolutamente nada.
Ley de las Colas y Embotellamientos:
La cola de al lado siempre avanza más rápido. No ayuda cambiar de carril. La ley no se altera.

Ley de la cinta adhesiva:
Existen dos tipos de cinta adhesiva: la que no pega y la que no sale.

Ley de Atracción de las Partículas:
Toda partícula que vuela siempre encuentra un ojo abierto.
En un próximo pasado adelantado en el tiempo - llámese futuro - nos introduciremos aún más en este maravilloso mundo buscando unir las antípodas de sus conceptos y a la vez establecer los meridianos de sus peculiaridades.
Por ahora basten estas disgresiones.

jueves, 18 de octubre de 2007

CATÁSTROFE CÓSMICA Y ARMAGGEDON


Autores: Mark Blade y Martín Griffiths de la Universidad de Glamorgan en el Reino Unido. Ambos son miembros del Grupo de Comunicación de Ciencia Astrobiológica de la NASA. Apareció originalmente en las actas de la conferencia “Apocalypse 2000” y ha sido publicado en la revista Explorer del Instituto SETI, del segundo cuarto del 2005, Vol. 2 núm. 2 siendo el Editor de dicha revista el astrónomo Seth Shostak
Imagen cortesía de © David A Hardy/ http://www.astroart.org/
La ciencia moderna ha tenido conocimiento ya por algún tiempo que la Tierra es bombardeada continuamente por una lluvia celestial de escombros cósmicos. La mayor parte se trata de polvo fino o de objetos mayores cuya mayoría se consume allá arriba en la atmósfera y son de pocas consecuencias para el medio ambiente terrestre. Pero ocasionalmente, algunos objetos mayores sobreviven el viaje a través de la atmósfera, encontrando su paso para caer finalmente al suelo y esos son conocidos como meteoritos.

Los asteroides gigantes y los cometas representan un peligro para todo el planeta; un peligro que está siendo tomado con mucha seriedad gracias a la evidencia apocalíptica de los registros sobre los fósiles. Cada par de años semejantes meteoritos causan daños: producen agujeros en casas, o se llevan el parabrisas de un coche como sucedió en Queens, Nueva York. ¡Bueno no solamente en el caso de este coche que fue reportado! Los meteoritos también han llegado a ocasionar la muerte de un perro; en el año 1911 cerca del pueblo de Nakhla en Egipto, un meteorito Marciano ocasionó la única muerte conocida de un perro provocada por un objeto cósmico. Semejantes eventos merecen una publicación en las noticias solo por su rareza esotérica. Aún así, lo que es preocupante acerca de esta lluvia cósmica es que la distribución de este material meteorítico no puede ser partido en pedazos y a diferencia de otros peligros terrestres naturales, una colisión con un objeto grande procedente del espacio exterior puede llegar a tener consecuencias extremas para nuestro planeta. Las estimaciones indican que cada pocos 100,000 años más o menos, los impactadores como cometas o asteroides de más de 1600 metros de diámetro golpean la Tierra con consecuencias serias globales para el medio ambiente. Las investigaciones también muestran que cada 100 millones de años o algo similar, un objeto cósmico de entre 8 y 16 kilómetros de diámetro, impacta con consecuencias tan terribles que la gran mayoría de las especies quedan en peligro de extinción. Es muy factible que un objeto aún mayor, quizá de unos 40 kilómetros de diámetro o más, golpeará a nuestro planeta durante el período de vida de nuestro Sol con la posibilidad de esterilizar la superficie de nuestro planeta. Este descubrimiento astronómico ha generado un programa algo retrasado, pero no por ello menos bienvenido, denominado “Vigilancia del Espacio” (Spacewatch en inglés), que pretende dar una prioridad de aviso de cualquier objeto que se acerque a una distancia de peligro de la Tierra. El escenario destructor concebido como resultado de tales impactos le ha otorgado una mayor importancia contemporánea a las palabras Apocalipsis y Armageddon. La catástrofe cósmica que se proyecta es de proporciones bíblicas y se diferencia de todos los demás desastres naturales en dos maneras: 1-Las consecuencias potenciales de un impacto grande exceden a cualquier otro peligro natural o creado por el hombre (incluida la guerra nuclear) 2-La probabilidad de un impacto grande dentro de una escala de tiempo políticamente relevante (digamos, durante nuestras vidas) es extremadamente pequeña pero no se encuentra fuera de las posibilidades de que llegase a ocurrir. Por lo mismo, el peligro del impacto es una perspectiva que se mantiene ahí como la última consecuencia de un peligro con pocas probabilidades pero que podría conducirnos a Armageddon. Sin embargo, tratar de predecir semejante catástrofe no es fácil y las predicciones incurren en varios riesgos conjuntos. De acuerdo con los astrónomos del proyecto “Spacewatch” (Vigilancia del Espacio): “...este peligro se está desarrollando a partir de uno que era casi desconocido hace dos décadas (entonces un impacto serio definitivamente no podría haberse pronosticado) a uno en el cual el 75% del riesgo podría, dentro de dos décadas, ser pronosticado tan exactamente que las medidas atenuantes dentro de nuestras capacidades tecnológicas podrían ser aplicadas con un alto grado de efectividad. Para el otro 25%, el pronóstico sería quizá demasiado tarde para montar algo más que medidas de contrarresto o podría suceder un evento totalmente inesperado o un “Acto de Dios” (como suele decirse) si un cometa llegase a aparecer de repente desde la dirección del Sol, de ahí que dejaría pocas posibilidades ya que estaría invisible a todas las técnicas de observación aquí en la Tierra”. (Historia del peligro de un Impacto de Asteroide / Cometa, Clark R. Chapman, 1998) Predecir a Armageddon es más que generar una serie de hechos y cifras; involucra una preocupación genuina basada sobre evidencias de impactos recientes. A pesar de que los astrónomos y los corredores de seguros utilizan el término “Actos de Dios”, una catástrofe de este tipo es simplemente un peligro por el solo hecho de vivir en un sistema planetario. Se sabe de un variado número de impactos conocidos en el último siglo. El primer impacto fue en Siberia, en un lugar conocido como Tunguska, en Junio del 1908. El segundo fue en Brasil en 1930. Afortunadamente, ambas áreas estaban despobladas y ni un solo ser humano falleció. Pero las consecuencias podrían haber sido muy diferentes y el peligro habría llamado la atención del público con mucha mayor anticipación si estos impactos hubiesen destruido un pueblo o una ciudad. Ahora que la amenaza de los Objetos Cercanos a la Tierra esta a plena luz, se está dando una mayor atención a los programas astronómicos que investigan estos peligros procedentes del espacio. Los astrónomos son capaces ahora de contradecir el contenido de ciertos medios que asustan como fue el caso de la proclamación de la posibilidad de un “casi choque” con la Tierra de un asteroide de casi dos kilómetros de ancho, pronosticado para el año 2028 y cuyos reportes iniciales sugerían varias posibilidades de un impacto real. Esto generó noticias de primera plana en Marzo de 1998. Desde que estos encabezados aparecieron, se produjeron dos películas taquilleras de ciencia-ficción, Deep Impact y Armageddon, que se presentaron en el verano del 1998, ayudando a elevar el perfil de este tipo de peligro, especialmente entre políticos y el populacho. El programa Spacewatch es ya hoy en día una participación muy importante en la detección de impactos. Aunque hoy en día nuestra tecnología sobre telescopios podría proporcionar predicciones más precisas respecto de donde se encuentra en el espacio un posible cuerpo de impacto, no pueden decirnos en que parte de la Tierra podría caer. También existen dudas respecto de estos pronósticos, al igual que las hay respecto de los pronósticos del tiempo, de los huracanes, tornados, calentamiento global, el agujero de ozono y el Niño – no podemos predecir resultados por adelantado y todo lo que nos queda son modelos de escenarios de la peor de las situaciones. El calentamiento global y la destrucción de la capa de ozono son problemas “invisibles” en el aspecto de que la gente ignora el efecto furtivo en el medio ambiente; detectar a un asteroide y conocer su subsiguiente impacto sería un problema totalmente “visible” que alzaría preguntas de cómo se preparan las instituciones, el gobierno, la sociedad y los políticos para reaccionar ante tal predicción de semejante desastre. Aún así, los astrónomos no pretenden ser como el niño de la fábula de Esopo que gritaba que venía el lobo y jugaba causando temores e incertidumbres, como avisar si algún objeto pasará cerca, pero no causará mayor peligro. Hacer esto sería perder credibilidad ante los ojos de todos y es preferible estar atentos y sólo informar cuando verdaderamente llegase a suceder algo que amerite ser tomado seriamente a los más altos niveles públicos y del gobierno. Saliéndose del camino ¿Qué podría hacerse respecto de un impacto inminente? Según David Morrison del Centro de Investigaciones Ames de la NASA, una vez que sepamos que puede ocurrir un evento de impacto, podríamos tratar de desviar al objeto de su curso de colisión con la Tierra. Esto podría lograrse con un arma de carga nuclear, que podría desviar al objeto ligeramente de su trayectoria si el misil es enviado con suficiente tiempo de antelación, meses o aún años antes de que llegase a ocurrir el evento de impacto. Hoy en día no existe un vehículo de mísiles capaz de elevarse con una carga de cabeza nuclear para llegar al espacio profundo, además de que es posible que no sea desarrollado debido a su alto costo y en vista del bajo riesgo de que semejante hecho ocurra. La otra alternativa para un caso de estos involucraría destruir al posible objeto en su totalidad. Dependiendo del tamaño del objeto que se acercase, una cabeza nuclear de alta capacidad sería suficiente para lograr esto. El problema del envío y la sincronización de las explosiones aún tiene que superarse y son muy pocos los científicos preocupados por ofrecer situaciones alternas. Los asteroides gigantes y los cometas representan un peligro para todo el planeta; un peligro que ya hoy en día está siendo tomado muy seriamente debido a la evidencia apocalíptica que nos indican los registros de los fósiles. Se cree que un objeto de aproximadamente 9 o 10 kilómetros de diámetro que impactó la Tierra, fue un factor contribuyente en la extinción de los dinosaurios hace unos 65 millones de años. La evidencia esencial, descubierta por el fallecido físico Luis Álvarez y su hijo Walter, un geólogo, es una capa del elemento iridio depositada en una roca sedimentaria en Gubbio, Italia, alrededor de la época en que los reptiles gigantes desaparecieron. El Iridio es un elemento muy raro en la superficie de la Tierra, pero mucho más común en los asteroides. Si un pedazo enorme de roca del espacio golpeó al planeta, teorizó el equipo de los Álvarez, debió desintegrarse en gran parte, repartiendo una capa de polvo rica en iridio y otros escombros por todo el mundo que pudo durar muchos meses. Privadas de la luz solar por esta versión natural de un invierno nuclear, las plantas y los animales que se alimentaban de ellas. Habrían muerto en grandes cantidades. Y cuando finalmente el polvo se depositó, el iridio que contenía habría formado una capa como la que encontraron los Álvarez. Arma humeante Desde que publicaron sus descubrimientos en 1980, un equipo de geólogos, paleontólogos, astrónomos y físicos han estado buscando evidencias más detalladas, incluido un cráter de edad similar a la extinción de los dinosaurios, que podría haber sido el “arma humeante” de semejante impacto. El cráter fue descubierto, eventualmente por Glen Penfield, un geólogo que trabajaba para PEMEX, la compañía Mexicana petrolera que se encontraba perforando pozos en la península de Yucatán. Lo que Penfield descubrió, fue un gran y viejo cráter de 65 millones de años y de 192 kilómetros de diámetro. Conocido en la actualidad como el Cráter Chicxulub, Penfield descubrió este ancestral sitio del impacto utilizando instrumentos que perciben anomalías gravitatorias y magnéticas. Un estudio a profundidad de varias características geológicas a través del hemisferio occidental ha revelado los tremendos detalles del impacto. La fuerza de la colisión hizo llover, inicialmente, rocas derretidas y escombros por todo el mundo, los cuales re-entraron a la atmósfera y se calentaron a unas temperaturas de 260 a 480ºC, matando a la mayoría de la vida animal en el lapso de horas o días. La vida de plantas y pequeñas criaturas que pudo haber sobrevivido al impacto inicial murió a medida que los minerales vaporizados y lanzados a la atmósfera superior tardaron meses y hasta años en volverse a sedimentar, creando un invierno permanente que sumergió todo el ecosistema en un congelamiento del cual muy pocas especies pudieron surgir. Los dinosaurios nunca tuvieron su oportunidad. Muchos astrónomos minimizan la amenaza de semejantes eventos y estadísticamente están en lo correcto. De acuerdo con David Morrison tenemos una oportunidad en 20,000 de que semejante evento ocurra durante nuestras vidas y a medida que nuestra capacidad tecnológica crece para descubrir y manejar semejantes situaciones, así mismo aumentan las posibilidades de evitar este tipo de Apocalipsis. Sin embargo, el debate científico actual respecto a proteger a la Tierra de semejantes impactos es el último punto dentro de la larga y violenta historia de nuestro planeta. Morrison recomienda que simplemente continuemos con nuestras vidas diarias con la aceptación fatídica y la aceptación de semejantes hechos. Conclusión Tenemos que aceptar la naturaleza apocalíptica de algunos eventos que le han sucedido a la Tierra en tiempos pasados y que podrían amenazarnos en el futuro. A medida que esta amenaza se percibe, el ser humano está en la encrucijada de su evolución. Por primera vez en la historia, una especie ha surgido en este planeta que tiene la capacidad tecnológica para poder postergar esta amenaza y aún eliminarla de la conciencia colectiva. Si esto es así, entonces la Tierra continuará su paso en la historia de la vida y quizá el Apocalipsis vendrá por medidas imprevistas mientras continua la evolución humana. Sin embargo, semejante forma de Apocalipsis apenas y sí sería catastrófica, pero solo ocasionaría cambios mínimos por espacios cortos de tiempo. Cualquiera que sea el caso, Apocalipsis y catastrofismo en sus diferentes maneras, serán siempre una parte del estudio cosmológico y astronómico ya que generan esperanzas respecto del mundo universal que habitamos. En el análisis final, continuamos estando inspirados y asombrados por los procesos físicos que forman nuestro universo y nos damos cuenta, a pesar de nuestra propia auto-importancia que nos hemos dado, de que solo somos una parte muy pequeña del cosmos que interactúa con la humanidad de manera que los ancestros nunca hubiesen imaginado.

IDENTIFICAN ASTEROIDE QUE POSIBLEMENTE BARRIÓ CON LOS DINOSAURIOS


El choque de dos asteroides hace 160 millones de años es el posible origen del cuerpo impactante del K/T.

(5 Septiembre, 2007 - SWRI - CA) Una investigación del Southwest Research Institute (SWRI) de Boulder, Colorado, Estados Unidos, llevada a cabo por los doctores William F. Bottke, David Vokrouhlicky y David Nesvorny, sugiere que el origen del asteroide causante del impacto que habría barrido con los dinosaurios y otras formas de vida en la Tierra, permitiendo el ascenso de los mamíferos, hace 65 millones de años atrás, puede ser rastreada hasta un choque ocurrido en el Cinturón de Asteroides hace 160 millones de años.
Modelizaciones de computador muestran que el objeto progenitor del asteroide (298) Baptistina, que tuvo unos 170 kilómetros de diámetro con características similares a los meteoritos carbonaceos condritos, fue impactado hace 160 millones de años por otro asteroide de unos 60 kilómetros.
Este impacto produjo lo que hoy se conoce como la "familia de asteroides Baptistina", un grupo de fragmentos de asteroides con órbitas similares. La familia contaba originalmente con unos 300 objetos mayores de 10 kilómetros y 140 000 cuerpos mayores de 1 kilómetro.
Luego del evento disruptor, los fragmentos recién creados comenzaron a migrar lentamente en el espacio debido a fuerzas termales producidas al absorber luz solar y reemitirla al espacio como calor.
Con el tiempo este dispersión gradual permitió que aproximadamente un 20 por ciento de los fragmentos de varios kilómetros derivaran a la "superautopista dinámica" más cercana, donde sus órbitas fueron modificadas lo suficiente como para escapar del Cinturón de Asteroides. Eventualmente estos fragmentos cayeron a órbitas que cruzaban el paso de la Tierra. Cerca de un 2 por ciento de estos exiliados del Cinturón de Asteroides cayeron a la Tierra, mientras que una fracción menor impactó con la Luna.
Es posible que un fragmento mayor de este evento creara el cráter de impacto Tycho de la Luna, con 85 kilómetros, hace unos 108 millones de años atrás.
Pero es aún más probable que un fragmento aún mayor nacido de la catástrofe de Baptistina creara el cráter de 180 kilómetros Chicxulub frente a la costa de Yucatán hace 65 millones de años atrás. El impacto que produjo este cráter ha sido vinculado con la extinción masiva de los dinosaurios.

martes, 16 de octubre de 2007

EXPLOSIÓN II – ANTIMICROBIANOS, VIRUS, GENÉTICA Y OTROS

Autor: Christian TRIGOSO
En el campo de los fármacos antibacterianos, no podemos olvidar que Pablo Ehrlich inició la era de la quimioterapia al encontrar después de sucesivos experimentos, el “606” salvarsán (bala mágica) primer fármaco utilizado contra la enfermedad del sueño y posteriormente utilizado contra la sífilis, le corresponde pues a Ehrlich además el acuñar el termino quimioterapia.

Posteriormente G. Domagk descubre el rojo de prontosil en 1932, principio activo contra bacterias en el hospedador pero no así in vitro. Los Trefouel descubren que la actividad antibacteriana depende de la conversión en sulfanilamida en el organismo del hospedador, finalmente el mecanismo de acción es desentrañado por D. Woods (inhibición competitiva con el ácido p-aminobenzoico)

W. Roberts describió en 1874 las prioridades antibióticas de algunos cultivos de hongos contra las bacterias.

Sin embargo es A. Fleming quien encuentra la penicilina a través de una contaminación afortunada de sus medios de cultivo en el año 1929, hecho que fue aprovechado por este investigador intuyendo genialmente los resultados de esta actividad antibacteriana por parte de los hongos (Penicillium notatum), no hay que olvidar que este bacteriólogo también fue un pionero en el descubrimiento y estudio de las propiedades de la lisozima.

La aplicación práctica de este antibiótico la harán Chain y Florey en 1942. Waksman en el año 1949 descubre la estreptomicina, Duggar la aureomicina, Burkholder la cloromicetina, Meneley la bacitracina, de aquí en adelante se procederá a buscar y encontrar un número bastante grande de antibióticos, tarea que aún hoy en la actualidad continúa, habiéndose cambiado los protocolos para buscar por síntesis química nuevos antimicrobianos, o por productos derivados del propio sistema orgánico humano.

En el terreno de la genética bacteriana después de la Teoría de la Mutación (H. De Vries) en que se propone una nueva perspectiva en la biología y el trabajo de Morgan en el que expone su Teoría de los Genes en el año 1926; son reconocidos los trabajos de Griffith (1928) quien descubre el fenómeno de la transformación de los neumococos. Lederberg, Beadle y Tatum (mecanismos de intercambio del material genético bacteriano).

Luria y Delbrück (1943) trabajan buscando mutaciones espontáneas en bacterias aisladas y que además interactúen con fagos, situación que permite a Avery, McLeod y McCarty en el año 1944 demostrar que en el fenómeno de la transformación es el ADN el que transporta la información genética.

Chargaff demuestra la transmisión genética a través del ADN en el modelo de Escherichia coli (1949).

Más adelante y gracias a los trabajos de Wilkins y Franklin - la famosa fotografía nº 51 - (Difracción por rayos X del ADN), finalmente Watson y Crick encuentran la doble hélice de este ácido, permitiendo la consolidación de la genética como una ciencia progresista y pujante, aunque es necesario recalcar que la Regla de Chargaff fue importante para lograr este hecho (La cantidad de citosina es igual a la de guanina y la de adenina igual a la de timidina).

Monod (crecimiento bacteriano) junto a Jacob crean la teoría de la regulación genética y el ARN mensajero, F.D´. Herelle (bacteriófagos).

En 1959 se otorgó el Premio Nobel a Severo Ochoa y A. Kornberg por sus estudios sobre síntesis biológica del ARN y ADN.

Los virus son descubiertos por D. Iwanovski en el año 1892, al estudiar en el Jardín Botánico “Nikitski” la enfermedad llamada Mosaico del Tabaco. En 1898 Beijerinck confirma estos trabajos y así empezará la ola de descubrimientos en esta nueva disciplina.

El invento del microscopio electrónico en la década de los treinta por Knoll y Ruska, permitió desarrollar esta joven ciencia con una rápida sucesión de hechos.

Loeffler y Frosch (virus de la fiebre aftosa), Reed, Lazear, Carroll, Agramonte y Finlay (virus de la fiebre amarilla), Landsteiner y Popper (virus de la poliomielitis), Plotz (virus del sarampión), Andrews y Francis (virus influenza), Stanley (cristalización de los virus), F. Twort (virus bacterianos). A.Lwoff (1950) aclaró los estados líticos y lisogénicos de los fagos. Goodpasture en 1931 describió por primera vez el método de cultivo viral en embrión de pollo. En el campo de los cultivos virales en células de mamíferos son importantes los trabajos de R. Dulbecco.

Buist en 1887 observó por primera vez las inclusiones celulares y los cuerpos elementales de la viruela y la vaccinia. Negri observa en 1903 las inclusiones de la rabia en el sistema nervioso central.

En la relación a los oncovirus es importante el trabajo desarrollado en el año 1911 por P. Rous al detectar la asociación viral con el sarcoma aviar, y en la década de los sesenta Trentin logro la inducción de tumores en ratones por adenovirus. Al igual que los estudios de Melnick en relación a los papovavirus.

En el inicio de la década de los sesenta se produce el descubrimiento de la transcriptasa reversa por Temin y Baltimore.

Y así sucesivamente hasta nuestros días, donde la virología se constituye en una disciplina extensa y prácticamente independiente que obtuvo en la década de los ochenta de este siglo un triunfo espectacular al encontrar en no mas de tres años la etiología del Síndrome de Inmunodeficiencia adquirida, a partir de las primeras notificaciones clínicas de esta entidad patológica (Barré Sinoussi, Montagnier y Chermann).

Sin embargo es necesario referirnos a unidades moleculares subvirales capaces de transmitir enfermedades y que fueron detectadas en este último tiempo. T. Diener encontró en vegetales moléculas de ARN desnudo a las que llamó viroides (1967). Prusiner detectó moléculas proteícas desprovistas de material genético y que son capaces de provocar patologías sobre todo localizadas en el sistema nervioso central (enfermedad de las vacas locas, etc.) a las que bautizó como priones (1981).

EXPLOSIÓN I – BACTERIAS, INMUNOLOGÍA, VACUNAS Y SUEROTERAPIA

Autor: Christian TRIGOSO
Posteriormente los discípulos y colaboradores de Roberto Koch descubrirán entre otros a los agentes etiológicos de la Difteria (Klebs y Loeffler), Fiebre Tifoidea (Gaffky y Eberth) y del Tétanos (Nicolaier y Kitasato).

A esta pléyade se une otra no menos famosa y formidable. Rosenbach (estafilococos, estreptococos), Bumm y Neisser (gonococo), Escherich (bacilo coli), Fraenkel (neumococo), Weichselbaum (meningococo), Bruce (Brucella melitensis), Kitasato y Yersin (Yersinia pestis), A. Hansen (bacilo de la lepra), Salmón y Gaertner (salmonelosis), Carter (sodoku), Shiga (bacilo de la disentería), Teobaldo Smith (Fiebre de Texas del Granado), Winogradsky (Bacterias nitrificantes), Beijerinck (aisla en cultivo puro bacterias fijadoras de nitrógeno), Schaudinn y Hoffman (Treponema pallidum).

Obermeier (Borrelia recurrentis), Israel (Actinomyces bovis) Pfeiffer (Haemophilus influenzae), Welch (Clostridium perfringens), Flexner (Shigella flexnerii), Bordet (Bordetella pertussis), McCoy (Francisella tularensis), Ricketts (Rickettsia rickettsiae), Wolbach (Rickettsia typhi), Noguchi (leptospiras).

En el terreno de la epidemiología, una disciplina tan ligada a la microbiología, si bien desde la antigüedad se aplicaban conceptos prácticos aplicados al estudio y control de enfermedades, son reconocidos por su metodología científica, los trabajos pioneros de Peter Panum que investigó una epidemia de sarampión en las Islas Faroe y describió el curso epidémico en la población (1847). John Snow que investigó un brote de cólera (1854) demostrando que todos los individuos infectados habían ingerido agua de una fuente contaminada por un baño cercano, y William Budd quien escribió la diseminación de la Fiebre Tifoidea rural, demostrando que se ejecutaba a través de aguas contaminadas.

En lo que respecta a la inmunología, ya el historiador Tucídides en el cuarto siglo antes de Cristo narra que durante la guerra del Peloponeso, solo los soldados que habían sobrevivido a una epidemia que se presentara, podían atender a los posteriormente aquejados, en la seguridad de que no podrían enfermar. Y Aristóteles daba instrucciones a Alejandro Magno para que su ejército hirviera y enterrara sus excrementos.

En el año 1796 Eduardo Jenner demostró que la inoculación con agentes de la viruela de los vacunos (vaccinia) inmunizaba contra la infección por la viruela natural, esta demostración fue tan importante como espectacular pues yendo en contra de las autoridades y pobladores de Gloucestershire, se dispuso a inocular al niño Phipps con material proveniente de las pústulas de Sarah Nelmes, sabiendo que si fallaba no sólo la vida del niño sino también la suya corrían peligro.

Semanas mas tarde le inyectó al niño con pus de pústulas de un enfermo de viruela comprobando que no desarrollaba la enfermedad, en 1798 dio a conocer sus resultados (“ An inquiry into the causes and effects of the variolae vaccínea…)

Lady Mary Wortley Montagu, esposa de un diplomático ingles destinado en Constantinopla ya explicó en Londres como en el oriente se utilizaba el método de la variolización a fin de salvar a las esclavas mas bellas de las terribles secuelas de la viruela.

Con los trabajos de Pasteur en el área de las vacunas (nombre acuñado por Pasteur en honor a Jenner) y con el descubrimiento de la inmunidad celular por parte de E. Metchnikoff (1845 – 1916) se allanó el camino en la investigación inmunológica ya que a partir de su teoría de los fagocitos explicó como en erizos de mar y pulgas de agua ha observado que estas células podían encargarse de eliminar microorganismos patógenos, llevando luego estos trabajos al terreno de los leucocitos en animales y el hombre.

Emil von Behring y Shibasaburo Kitasato descubrieron la sueroterapia, dándole aplicación practica Emile Roux (sueroterapia contra la difteria).

Pablo Ehrlich (1854 – 1915) es un hito en el estudio de esta disciplina pues descubre los fenómenos de la inmunidad humoral (anticuerpos y modelos de cadenas laterales), otorgándole un rango importante a los anticuerpos y su reacción con los antígenos, “impuso la aristocracia de los anticuerpos frente a la democracia de las células”. Reafirmándolos y sustentándolos Jules Bordet quien descubrió también los fenómenos de la alexina (mas tarde se aceptará el nombre de complemento propuesto por el propio Ehrlich.).

En 1897 se visualiza por primera vez una reacción antígeno – anticuerpo, a través del enturbiamiento de un filtrado bacteriano al mezclarlo con un suero inmune específico, y es R. Graus el que habrá de ser el que realice este trabajo.

También Jules Bordet en el año 1901 ha de elaborar el primer sistema de detección de anticuerpos a través de la Fijación del Complemento.

Nutall, Buchner y Pfeiffer realizaron también importantes contribuciones en este terreno.

La unión de las dos teorías se debe a los trabajos de A. Wrigtht Y S. Douglas, quienes descubrieron en el año 1904 las opsoninas, proteínas presentes en el suero de animales inmunizados y que al unirse a las superficies bacterianas, incrementan la capacidad fagocítica de los leucocitos.

Richet y Portier (1902) descubren la anafilaxia al igual que Arthus (1903), y Karl Landsteiner en el año 1942 descubre los haptenos.

En el año 1939 Tiselius advierte que los anticuerpos constituyen la fracción gamma globulínica del suero.

En 1959 Porter y Edelman definen la estructura de los anticuerpos.

En el terreno de las vacunas y los toxoides, más allá de las contribuciones de Pasteur - fundamentales por cierto – se lograron toxoides bacterianos inmunogénicos como el toxoide tetánico (Eisler y Lowenstein, 1915), toxoide diftérico (Glenny, 1921.) En 1922 Calmette y Guérin desarrollan la vacuna contra la tuberculosis a partir de una cepa atenuada de Mycobacterium bovis conocida mas adelante como BCG. Jonás Salk iniciará la erradicación de la poliomielitis al encontrar la primera vacuna contra este virus (1954) y Sabin preparará la vacuna de administración oral contra este mismo virus.

En el terreno referido a la formación de anticuerpos, sin duda alguna el trabajo de M. Burnet al establecer su Teoría de Selección Clonal abre el camino para estos estudios, en este ultimo tiempo N. Jerne ha mejorado la selección clonal, proponiendo inclusive un modelo de regulación inmune conocido como Teoría de la Redes Idiotípicas, igualmente otro avance espectacular fue el de lograr los anticuerpo monoclonales a través de la preparación de hibrodromas por C. Milstein y G. Kohler en el año 1975. S. Tonegawa es quien se encargará de explicar los procesos de reorganización genética responsables de la expresión de los genes.

martes, 18 de septiembre de 2007

EL INSTANTE DE LA CREACION EN EL RECONOCIMIENTO DE LOS MICROBIOS



Autor: Christian TRIGOSO

En honor a quien sentara las bases de la bacteriología como disciplina científica debemos referirnos a un coloso de esta nueva ciencia: Luís Pasteur.

Luís Pasteur nació en Dole el 27 de Diciembre de 1822, se doctora en ciencias en 1847 y en 1855 comienza el estudio de las fermentaciones concluyéndolas con el descubrimiento de la fermentación butírica y el fenómeno de la anaerobiosis. Precisamente este hombre se encargará de asestar el golpe mortal a la estructura de por si decadente de la generatio spontanea a través de experimentos sencillos y metódicos pero concluyentes (nunca se olvidarán los matraces con cuello de cisne que sirvieron a Pasteur para demostrar el error de la generación espontánea y que se publicaron en un sobrio trabajo intitulado “Experiences relatives aux generations dites spontanées”, igualmente inició sus trabajos en lo referente a infecciones y septicemias que habrían de servir de base para la creación de la antisepsia a través de la aplicación práctica de estos principios, superando las altas tasas de mortalidad por infecciones en las salas de cirugía. Basta recordar que hasta ese momento los médicos no se lavaban las manos para atender pacientes o someterlos a cirugía, siendo corriente que las chaquetas que utilizaban, cuantas más manchas de exudados y líquidos corporales presentaran, demostraban una mayor pericia profesional; por otro lado era común que después de haber trabajado en los anfiteatros con disecciones en cadáveres pasaran inmediatamente a la atención de parturientas, convirtiendo los hospitales en verdaderas antesalas de la muerte.

En 1877 Tyndall implementa un sistema de esterilización basado en el calor húmedo fraccionado, precisamente se conocerá después como Tyndalización, por el cual es posible eliminar formas muy resistentes a las condiciones del medio ambiente, el alemán F. Cohn las estudiará y prácticamente se convertirá en el descubridor de lo que hoy conocemos como esporas bacterianas.

José Lister (1827 – 1912) inició esta revolución en lo que se refiere al uso de compuestos químicos (fenol) como procedimiento para esterilizar los ambientes e instrumental quirúrgicos y edificar de esta forma los principios definitivos de la antisepsia, disminuyendo en forma dramática las tasas de infección post operatoria. Es importante revelar que Lister siempre mantuvo comunicación con Pasteur, de manera que a través de su trabajo vio influenciado el suyo, es así que en 1888 logra aislar en forma pura, utilizando diluciones límite en los caldos, al bacterium lactis. Otro médico que ya en 1840 había pregonado el lavado previo de las manos de todos quienes atendieran a las parturientas, fue Ignacio Semmelweis; consiguiendo así disminuir también las tasas de mortalidad por las llamadas fiebres puérperales, provocando el desprecio de sus colegas que no comprendieron este mensaje, años mas tarde Semmelweis terminaría sus días en un asilo para enfermos mentales.

En el estudio de los procesos de fermentaciones, a su turno Cagniard - Latour y luego Kützing habían visto la posibilidad de que células de levadura fueran causantes de estos procesos para llegar a obtener productos alcohólicos a partir de substratos azucarados, sin embargo el paradigma de la época sustentando por Berzelius y Liebig principalmente, dirigían la explicación en torno a procesos químicos y físicos de descomposición. En 1857 Pasteur demostró que los causantes de la fermentación láctica eran microorganismos para finalmente en 1866 exponer que la fermentación alcohólica se debía a la actividad de levaduras (“Etudes sur le vin”).

Pasteur se convirtió en el decano de los bacteriólogos del mundo, formando una formidable escuela entre los que destacarán Chamberland y Roux, precisamente trabajando con ellos encontró que a través de la desecación de las médulas espinales de conejos conseguía atenuar la virulencia del virus rábico (imagine el lector, ni siquiera podía observar al germen pero ya lo había confinado a una probeta y se aprestaba a sacarle el máximo provecho), y así pues en el mes de Julio de 1885 el niño José Meister de 9 años de edad, quien había sido mordido por un perro rabioso, fue el primero en recibir la vacuna antirrábica de Pasteur, salvando así su vida y sucediéndose de aquí en adelante una verdadera cadena de inmunizaciones contra este flagelo, aumentando con cada vida salvada su fama y la gratitud del mundo, gratitud que se plasmó en un movimiento mundial que envió dinero a este insigne hombre a fin de que se construyera el templo de los bacteriólogos (el Instituto Pasteur) obra que concluyó en 1888. Sin embargo hay que añadir que no sólo trabajó en estas áreas, sino que también realizó un sinnúmero de investigaciones en otros campos, como olvidar sus estudios sobre las enfermedades del gusano de seda, estudios sobre la cerveza, carbunclo, cólera aviar, erisipela del cerdo, etc.

Pasteur sucedió a Littré en la Academia Francesa (1882) y finalmente falleció el 28 de septiembre de 1895, no sin antes dejar cimentadas las bases de la moderna microbiología así como definitivamente estructurada la Teoría Microbiana de las Infecciones.

En lo que se refiere al inicio del aislamiento de bacterias patógenas para el hombre, debemos indicar que Rayer (1850), Davaine (1863) y Pollander (1849) fueron los primeros que hallaron la bacteridia del carbunclo; sin embargo no pudieron explicar la forma de contagio, considerándose este descubrimiento como el primer hito en la bacteriología médica.

En 1876 aparecería un trabajo que habría de colocar a su autor como rival de Pasteur, se trata de un médico alemán rural que trabajando en Wollstein, sin laboratorio, sin formación bacteriológica, sin auditorio y tan sólo con la inspiración de la Cátedra impartida por Henle, así como por la imaginación e inflexibilidad de su carácter, habrá de sentar las bases de la metodología en la Bacteriología a través de un formidable estudio sobre la causa de carbunclo y su modo de transmisión, su nombre: Roberto Koch

Este humilde científico plasmará en cuatro postulados (aprendidos de Jacobo Henle) la metodología bacteriológica: 1) Hallar el mismo microorganismo en todos los casos de la enfermedad considerada 2) Aislar este microorganismo puro en cultivos artificiales. 3) Una vez inoculado a animales de laboratorio deberá producir la enfermedad motivo de estudio, lesiones o la muerte posterior de estos. 4) Recuperar de estos modelos animales, el mismo microorganismo obtenido en el primer paso.

Llegando a Breslau recurre a F. J. Cohn, uno de sus profesores de Botánica, a quien le presentará los resultados de años de faena silenciosa, advirtiendo que luego de unos momentos Cohn abandona la sala precipitadamente para ordenar a sus alumnos que dejen de hacer todo lo que se hallaban realizando pues, hay un hombre que ya lo ha hecho todo, entre los muchachos que atropelladamente salen a escuchar a Koch se halla Paul Ehrlich.

Cabe resaltar que fue el primero que utilizó los medios de cultivo sólidos, logrando de esta manera el aislamiento total de las bacterias, a través de la utilización de la gelatina como solidificante y el caldo de carne preparado por Loeffler como base nutritiva (1881). En el año 1882 Frau Fanny Hesse (esposa de uno de sus colaboradores) sugiere el uso de agar - agar como solidificante y en 1887 R. J. Petri (ayudante de Koch) inventa las cajas de vidrio que llevan su nombre y hasta hoy son utilizadas. Sin embargo en el año 1882 se producirá un sensacional descubrimiento y obviamente Koch habrá de ser su artífice; trabajando con vesubina y azul de metileno (colorantes) obtuvo las primeras tinciones de Mycobacterium tuberculosis (“Die Aetiologiae der Tuberculose”) publicado mas tarde por el Berliner Klinische Wochenschrift, desenmascarándolo y asombrando una vez más al mundo. A partir de este trabajo, mismo que fue leído ante la Sociedad de Fisiología de Alemania y donde un auditorio atónito y estupefacto inclusive se olvidó aplaudir al terminar la presentación, comenzó la fiebre por descubrir microbios.

No podemos dejar de lado el aporte de Wϋrtz quien en 1892 introdujo la utilización de indicadores de pH en los medios de cultivo para demostrar capacidades metabólicas, unos años antes Chamberland utiliza por primera vez los filtros de porcelana (1887) para luego Berkefeld utilizar los filtros de tierra de diatomeas en 1891.

Julius Cohn ha de ser quien acuña el término de bacteria para designar a estos microorganismos y Pasteur crea el término de microbio, Koch inscribe el nombre de bacteridia al igual que Davaine y el médico cirujano Billroth el de cocos.

En 1882 Ziehl y Neelsen desarrollan un método especial (ácido alcohólico) de tinción para micobacterias.

En el año 1884 Hans Christian Gram descubre la tinción diferencial que lleva su nombre, un año antes nuevamente Koch paraliza al mundo al aislar el agente etiológico del cólera (bacilo vírgula). En 1890 Loeffler utilizando también métodos tintoriales especiales pone en evidencia a los flagelos bacterianos.