SIGLO XX: DE LA REPRODUCCIÓN FEMENINA A LA LEPTINA

Qué son los ovarios y cuál es su función

El proceso de la ovulación

Los ovarios y la reproducción femenina (1900)

Durante un tiempo se supo que la pérdida de los ovarios causaba la atrofia del útero y la anulación de la función sexual. En 1900 Emil Knauer demostró que los ovarios ejercían un control sobre el sistema reproductor femenino. Al trasplantar ovarios a animales previamente castrados, mejoraban los síntomas asociados con su extirpación. Josef von Halban amplió esos estudios ese mismo año al demostrar que el reimplante de ovarios en un cobaya inmadura castrada hacía posible que el animal alcanzara la pubertad normal. Así descubrió que los ovarios no solo mantenían el tracto genital de la mujer, sino que también eran responsables de su desarrollo.

Sobre la base de esos hallazgos se postuló la existencia de una secreción del ovario, una hormona. Para identificar esa sustancia hubo que desarrollar un ensayo sensible capaz de detectar el estrógeno, la hormona sexual femenina, en la sangre y la orina de mujeres embarazadas y no embarazadas. En 1926 Siegfried Loewe detectó la presencia de una hormona sexual femenina en la orina de las mujeres que menstruaban, y observó que variaba en concentración en función de la fase del ciclo menstrual. 

Grupos sanguíneos

Tipos de sangre. ¿Qué son y como funcionan?

Grupos sanguíneos (1901)

El descubrimiento de los grupos sanguíneos por parte de Karl Landsteiner, inmunólogo estadounidense, transformó las transfusiones en un procedimiento médico rutinario. En 1901, en el Instituto de Patología de Viena, expuso que, al entrar en contacto la sangre de determinadas personas con la de algunas otras, podía causar una aglutinación (grumos) de los glóbulos rojos con consecuencias fatales, lo cual se debía a una reacción inmunológica (antígeno - anticuerpo). Identificó tres grupos sanguíneos en los humanos, que llamó A, B, y C (más tarde renombrado O), y posteriormente un cuarto grupo, el AB.

En 1927 se introdujeron los grupos sanguíneos ABO para determinar los padres biológicos de un niño en los juicios de paternidad. En 1940 cuando Laindsteiner trabajaba en el instituto Rockefeller, descubrió otro factor sanguíneo en los monos Rhesus. Ese factor, llamado Rh, era el responsable de la enfermedad hemolítica que pone en peligro la vida del recién nacido, enfermedad que aparece cuando una madre y su feto tienen grupos sanguíneos incompatibles.



Cultivo de tejidos vegetales

¿Cómo funciona el cultivo de tejidos?

Anticuerpos monoclonales

Cultivo de tejidos (1902)

El cultivo de tejidos, ya sean órganos o células, consiste en cultivar fragmentos de tejido vegetal o animal en un medio externo estéril y artificial donde pueden ser fácilmente manipulados y estudiados. En los ensayos se analizan la actividad bioquímica o genética y la función metabólica, nutricional o especializada, así como los efectos causados por agentes físicos, químicos o biológicos, incluidos los medicamentos. 

Con los avances en investigación, el cultivo de tejidos vegetales (micropropagación) se ha utilizado para desarrollar plantas más robustas y resistentes a las plagas y para elaborar productos farmacéuticos (como el medicamento contra el cáncer Taxol), así como en el ámbito de la ingeniería genética. 

En 1907, Ross Granville Harrison desarrolló una nueva técnica de cultivo de tejidos que zanjó el largo debate sobre cómo se originan las fibras nerviosas. Su método, el del cultivo de la "gota colgante", se convirtió en una herramienta primordial para la investigación viral, y se empleó en la fabricación de vacunas para prevenir la poliomelitis, el sarampión, las paperas, la rubeola y la varicela, y más tarde para la producción de anticuerpos monoclonales. 

Las células de la línea celular HeLa, derivada de las células del cáncer cervical pueden dividirse en un número ilimitado de veces en cultivo celular, siempre y cuando se mantenga el medio de cultivo adecuado. Estas células se han utilizado en importantes investigaciones científicas.

 

Estimulación del páncreas gracias a la liberación de secretina del duodeno

El sistema endocrino, fisiología de glándulas y hormonas

Documental sobre el sistema endocrino

Un ejemplo de la acción hormonal y respuesta fisiológica (la hormona GH o del crecimiento)

Secretina, la primera hormona (1902)

Durante la década de 1840, Claude Bernard determinó que las secreciones del páncreas son responsables de la digestión de las grasas ingeridas, proceso que tiene lugar en el intestino delgado, no en el estómago. En 1902 los fisiólogos ingleses William Bayliss y Ernest Starling quisieron comprender mejor esa secreción pancreática. Seccionaron todos los nervios del páncreas, y los jugos siguieron fluyendo, con lo que descartaron la participación directa del sistema nervioso.

Bayliss y Starling se centraron en los factores químicos responsables de la liberación de los jugos digestivos pancreáticos. Trituraron trozos de duodeno de un perro con ácido en el estómago (ácido clorhídrico) e inyectaron ese extracto en otro perro. Al comprobar que en el animal se liberaba jugo pancreático, como hubiera ocurrido si hubiera estado comiendo, supusieron que desde la mucosa del intestino debía de haberse secretado una sustancia química (que llamaron secretina), que habría llegado al torrente sanguíneo y al páncreas, donde habría activado la secreción del jugo digestivo. En 1905 Starling llamó a ese mensajero hormona (del griego "excitar").

Para que pueda llamarse hormona, la sustancia química debe ser liberada directamente en la sangre por una glándula sin conductos (endocrina) y transportada por la sangre hasta un destino distante. En la década siguiente se descubrieron la adrenalina, la tiroxina, la insulina, la testosterona y el estradiol. El sistema endocrino es uno de los dos principales sistemas responsables de la comunicación en el cuerpo y del mantenimiento de la homeostasis (el otro es el sistema nervioso). Las hormonas son liberadas por glándulas como la tiroides, las glándulas suprarrenales o los ovarios, y regulan funciones tales como el crecimiento y desarrollo, la reproducción, el metabolismo de la energía o el comportamiento. 

Las fitohormonas (hormonas vegetales) son inferiores en número y contribuyen al crecimiento y desarrollo de la planta. 



Ejemplo de ajuste de Hardy - Weinberg

Equilibrio de Hardy - Weinberg (1908)

En 1908 el matemático inglés Godfrey Hardy y el médico alemán Wilhelm Weinberg desarrollaron, cada uno por su lado, un modelo para determinar si se había producido evolución detectar si había habido algún cambio en las frecuencias genéticas de la población. Si no se da una evolución, las frecuencias alélicas se mantendrán en equilibrio en cada generación de individuos. Pero, para que haya equilibrio, deben cumplirse todas y cada una de estas cinco condiciones:

  1. La población debe ser infinitamente grande para evitar la deriva genética (la posibilidad aleatoria de que cambien las frecuencias alélicas).
  2. El apareamiento entre individuos debe ser aleatorio.
  3. No deben darse mutaciones, para evitar la introducción de nuevos alelos en la población.
  4. Ningún individuo puede entrar ni salir de la población.
  5. No se puede producir una selección natural, de modo que ningún alelo sea preferido ni quede excluido.

En la vida real, tales condiciones no se darían nunca, por lo que habría evolución. 

Mapa cromosómico. Proyecto Genoma Humano

Genes en los cromosomas (1910)

En el año 1910, Morgan, zoólogo de la Universidad de Columbia propuso la teoría cromosómica de la herencia. Cada cromosoma contenía una serie de pequeñas unidades denominadas genes, dispuestos en el cromosoma como "cuentas ensartadas en una cuerda". Además, algunos rasgos (como el cuerpo amarillo o unas alas rudimentarias) estaban vinculados al cromosoma que determina el sexo. En 1913 Alfred H. Sturtevant, alumno de Morgan, descubrió que se podía asignar a cada gen una posición específica en el mapa cromosómico, lo cual sentaría las bases para descifrar el genoma humano. El gen era el eslabón perdido entre las leyes de la herencia de Mendel y la teoría de la evolución de Darwin, y Morgan ocupó ese vacío. 

Proceso histórico de deriva continental

La deriva continental y la tectónica de placas

Animación del desplazamiento y formación de los continentes

Deriva continental (1912)

La simple observación de un mapa del hemisferio sur permite observar que la costa oriental de América del Sur y la costa occidental de África encajan como piezas de un rompecabezas. Eso mismo pensó el naturalista y explorador Alexander von Humboldt, quien a principios del siglo XIX halló similitudes entre los fósiles de animales y plantas de América del Sur y del África occidental, así como elementos comunes entre las cordilleras montañosas de Argentina y Sudáfrica. 

En 1912 Alfred Wegener, geofísico y meteorólogo alemán explorador de los polos, dio un paso más y propuso que los continentes actuales estuvieron una vez unidos en una gran masa continental, a la que llamó Pangea ("todas las tierras"). A partir de ahí, describió cómo luego Pangea se había dividido en dos supercontinentes, Laurasia (el hermisferio norte actual) y Gondwana (el hemisferio sur), algo que ahora se calcula que ocurrió hace unos 180 o 200 millones de años. La deriva continental se aceptó en 1960 cuando se definió el concepto de placas tectónicas, placas en continuo movimiento, en relación entre sí, que se separan o se deslizan unas por debajo de otras. 


Estructura molecular de la insulina

Historia de la insulina

Síntesis y secreción de la insulina

La insulina (1921)

La insulina es una hormona que, de forma activa, conserva y almacena alimentos ricos en energía cuando se ingieren en exceso: los hidratos de carbono de más se almacenan en el hígado y en los músculos en forma de glucógeno, las grasas se depositan en el tejido adiposo, y los aminoácidos se convierten en proteínas. 

Nuestro conocimiento moderno de la diabetes arranca en 1869, cuando Paul Langerhans descubrió unas células del páncreas desconocidas hasta entonces que luego se denominarían islotes de Langerhans. Treinta años después Joseph von Mering y Oskar Minkowski se propusieron determinar la función biológica del páncreas. Tras extirpar el órgano a un perro, el animal mostró todos los síntomas de diabetes, incluida la reveladora presencia de azúcar en la orina. 

En enero de 1922, un paciente diabético de 14 años, Leonard Thompson, fue el primero en recibir un extracto pancreático, con un resultado sastisfactorio: se había descubierto la insulina. Esto fue gracias al cirujano canadiense Frederick Banting y a John J.R. MacLeod quieres revirtieron los síntomas de la diabetes inyectándole a un perro un extracto pancreático de otro perro sano. 


Resumen del proceso de respiración celular

Fase 1: Glucolisis

Fase 2: Ciclo de Krebs

Mitocondrias y respiración celular (1925)

Las mitocondrias son las centrales energéticas de las células eucarióticas y las responsables de transformar la energía de los alimentos ingeridos en una sustancia química (trifosfato de adenosina - ATP) que las células utilizan para desempeñar sus funciones. Según la teoría de la endosimbiosis, hace miles de millones de años las mitocondrias eran organismos aerobios (consumían oxígeno para producir energía) de vida libre. Algún organismo anaerobio (que moría en presencia de oxígeno) y que era poco eficaz en la producción de energía, engulló e incorporó unas bacterias aerobias (pueden vivir en presencia de oxígeno y utilizarlo como eficaz combustible) que se transformarían en las actuales mitocondrias. 

La respiración celular consiste en una serie de pasos bioquímicos en los cuales se van a ir oxidando las moléculas de azúcares y de otros compuestos que almacenan energía, como las grasas. En algunos de esos pasos de oxidación se genera ATP, que es la molécula principal que va a donar la energía para que vivan las células. El proceso de respiración celular tiene tres fases: 

  1. La glucolisis: puede ocurrir tanto en presencia como en ausencia de oxígeno.
  2. El ciclo de los ácidos tricarboxílicos, del ácido cítrico o ciclo de Krebs. El acetil - CoA entra en las mitocondrias y se producen una serie de reacciones bioquímicas. 
  3. Cadena de transporte de electrones o fosforilación oxidativa: la más importante energéticamente, necesita oxígeno como aceptor final de electrones que se reduce a agua. El NADH producido anteriormente se oxida y con la energía que libera se produce gran cantidad de ATP.

Fase 3: fosforilación oxidativa

Cómputo total de la cantidad de ATP producido en la respiración celular por cada molécula de glucosa y desglosado por cada fase

Ecología de poblaciones y ecosistemas

Modelo de crecimiento logístico de poblaciones

Modelo de crecimiento exponencial de las poblaciones

Ecología de las poblaciones (1925)

En 1798 el economista político y demógrafo inglés Thomas Malthus escribió un ensayo donde predecía que la población humana estaba creciendo a un ritmo tan rápido que, si no se controlaba, causaría hambrunas y pobreza generalizadas. 

El término población alude a los miembros de una misma especie en un área geográfica concreta, y la ecología de poblaciones analiza los factores que influyen en las poblaciones y cómo estas interactúan con el entorno. En su libro Elements of Physical Biology (1925), Lotka explicaba qué cuatro variables afectaban a la población (muerte, nacimiento, inmigración y emigración) y que, cuando las pérdidas y las ganancias eran iguales, se conseguía un equilibrio dinámico. Las dimensiones de la población se ven afectadas por interacciones con factores medioambientales abióticos y bióticos: entre los factores abióticos están el clima y el abastecimiento de alimentos, mientras que los factores bióticos incluyen la depredación y la competencia intra e interespecífica. 

Los científicos calculan que el 99% de las especies que han existido a lo largo de la historia se han extinguido. Además de factores abióticos y bióticos negativos, el ser humano ha contribuido a la extinción y al declive de algunas poblaciones. Entre las contribuciones del ser humano encontramos la contaminación, como vertidos de residuos industriales y fertilizantes agrícolas; el calentamiento global; la introducción de especies invasoras, como el mejillón cebra en el río Ebro; y la eliminación de especies competidoras o depredadoras.


¿Qué es una red trófica y cuales son sus niveles?

Transferencia de energía entre niveles tróficos

Niveles alimentarios en las redes tróficas y transferencia de energía

Redes tróficas (1927)

Charles Elton, de la Universidad de Oxford, fue uno de los expertos en ecología animal más destacados del siglo XX. En su obra clásica Animal Ecology (1927), Elton sentó las bases de la ecología moderna, incluidos temas centrales en ecología como son hoy las cadenas alimentarias y las redes tróficas.

En su nivel más elemental, un ciclo alimentario sigue una relación lineal desde la base de la cadena alimentaria (una especie que no se alimenta de ninguna otra, por ejemplo una planta) hasta el depredador o consumidor final, lo que suele constar de tres a seis niveles tróficos. La cadena trófica no tenía en cuenta los ecosistemas reales, en los que hay múltiples depredadores y múltiples presas, ni la realidad de que un animal dado puede comer otros animales si no encuentra su presa preferida. Por otro lado, algunos carnívoros son omnívoros (también comen vegetales); y los herbívoros pueden comer carne en ocasiones. La red trófica, concepto ahora preferido al de la cadena alimentaria, representa esas complejas interrelaciones.

En 1942 Raymond Lindeman planteó que el número de niveles de una cadena trófica está limitado por la dinámica trófica, la transferencia efectiva de energía de una parte del ecosistema a otra. Después de comer, la  energía se almacena en el organismo del consumidor, y viaja en una sola dirección. Buena parte de esa energía se pierde en forma de calor (cuando la comida cubre necesidades básicas), y el resto se elimina como material residual. En general, tan solo un 10% de la energía consumida está disponible en el siguiente nivel trófico. Así, a medida que vamos subiendo en la cadena, en cada nivel sucesivo se transmite menos energía, por lo que las cadenas alimentarias no suelen superar los tres o cuatro niveles tróficos. 

Mecanismo de acción de los antibióticos sobre las bacterias

Alexander Fleming y la penicilina

Antibióticos (1928)

En 1999 la revista Time afirmaba que la penicilina fue un descubrimiento que cambió el curso de la historia. Fue el primero de muchos antibióticos, sustancias derivadas de microbios (hongos o bacterias) que matan o controlan el desarrollo de otros microbios. En 1877 Louis Pasteur demostró que era posible combatir e un microbio con otro, fenómeno que denominó antibiosis. Pasteur sostenía que los microbios liberaban materiales que se podían utilizar con fines terapéuticos, predicción que se validaría seis décadas después. 

En 1928, Alexander Fleming, científico escocés, comprobó que una de sus placas de cultivo en un laboratorio en la Facultad de Medicina del hospital St. Mary de Londres se había contaminado, pero no se había desarrollado una colonia de estafilococos alrededor de la contaminación fúngica: tal vez el hongo había liberado alguna sustancia antibacteriana. Por ello, preparó un cultivo puro del hongo, Penicilinum notatum, y observó que mataba de forma selectiva muchas bacterias, pero no todas. Llamó a aquella sustancia penicilina, y en 1929 escribió un artículo donde describía sus efectos. 


El proceso de la ovulación

Para que sirve la progesterona y efectos secundarios

Progesterona (1929)

En el año 1929, George Corner y Willard Allen determinaron que el aborto que se produce tras eliminar el cuerpo amarillo (lo que queda de un folículo después de la ovulación, un "órgano de gestación", necesario para el desarrollo de la placenta por la liberación de una secreción interna que prepara la mucosa uterina para la llegada de un óvulo fecundado y su implantación en la pared del útero) en conejas embarazadas podía evitarse administrando un extracto del cuerpo amarillo. Ese extracto, purificado en 1933, se denominó progestina (progesterona).

Tras la ovulación, el cuerpo amarillo entra en acción y segrega progesterona anticipándose a la posible fecundación del óvulo liberado y al posterior embarazo. La progesterona estimula la formación de un revestimiento grueso de los vasos sanguíneos de la pared uterina, necesario para sustentar el desarrollo del feto. El cuerpo amarillo sigue produciendo progesterona durante una diez semanas, momento a partir del cual la placenta asume esta función. Durante el embarazo, la progesterona calma el útero y evita las contracciones que podría provocar un aborto espontáneo. Si el óvulo no se fecunda, el cuerpo amarillo degenera y deja de segregar progesterona. Y así comienza un nuevo ciclo menstrual. 


Gran tamaño del microscopio electrónico

Microscopio electrónico de transmisión (MET)

Microscopio electrónico de barrido (MEB)

Imagen bidimensional vista el MET

Microscopio electrónico (1931)

El microscopio electrónico, uno de los instrumentos más valiosos para el estudio de la biología, ha revolucionado el descubrimiento y la descripción de la estructura subcelular. Esas estructuras no podían verse con el microscopio óptico estándar, desarrollado a finales del siglo XVI.

El microscopio óptico amplía los objetos hasta 2000 veces, mientras que el electrónico ofrece hasta dos millones de aumentos y una resolución muy superior. Los dos microscopios electrónicos básicos son el de transmisión (MET) y el de barrido (MEB). El MET transmite electrones a través de finos cortes de tejido; ofrece una imágenes bidimensionales que sirven para examinar la estructura interna de las células. En el caso del MEB, el rayo electrónico realiza un barrido de la muestra: se usa para estudiar la superficie de especímenes vivos sólidos. Produce excelentes imágenes tridimensionales, pero su potencia es tan sólo una décima parte de la del MET y ofrece una menor resolución. En el caso de los MET, las muestras deben teñirse y visualizarse en vacío, lo que excluye el estudio de especímenes vivos; y ambos son grandes y deben instalarse en estancias libres de toda vibración. 

El físico Ernst Ruska y su profesor Mas Knoll desarrollaron el microscopio electrónico en la Universidad de Berlín. Knoll sabía que la resolución óptica (capacidad de distinguir entre dos puntos, una medida del detalle) dependía de la longitud de onda de la fuente de iluminación, y que la longitud de onda de los electrones es de 1/100 000 la de las partículas de la luz. Basándose en esa relación y utilizando un rayo de electrones centrado en la muestra con electroimanes, en 1931 desarrollaron el primer microscopio electrónico. 


Imagen tridimensional vista el MEB

Ley de la alometría de Kleiber: El metabolismo basal (B) sigue una ley de potencia con su masa (M) elevado a dos tercios. a y b son constantes dependiendo de la energía disipada en forma de calor y de la especie de estudio

Alometría (1936)

El término alometría ("medida diferente") acuñado en 1936 por Huxley y Georges Tessier incluye relaciones como el tamaño corporal y la tasa de metabolismo basal (TMB), la tasa metabólica de un organismo en reposo. En 1932 el biólogo suizo Max Kleiber determinó que los elefantes tenían TMB y ritmos cardíacos absolutos más bajos que los ratones, pero si se tenía en cuenta su masa corporal, la TMB representaba una potencia constante de tres cuartos de la masa corporal. Siguiendo la ley de Kleiber, posteriormente se demostró que esa misma relación de la TMB existía entre microbios minúsculos y elefantes, lo que sugería una presión evolutiva común. 

Mecanismo fisiológico del potencial de acción

El potencial de acción

Potencial de acción (1939)

En 1939 Andrew Huxley junto con Alan Hodgkin se pusieron a estudiar la conducción nerviosa del axón gigante del calamar del Atlántico, el animal que tiene las células nerviosas más grandes que se conocen. Consiguieron insertar un electrodo fino en el axón y fueron los primeros en registrar la actividad eléctrica intracelular. 

En 1848 el fisiólogo alemán du Bois - Reymond había descubierto el potencial de acción, y en 1912 Julius Bernstein había planteado la hipótesis de que el potencial de acción era el resultado de cambios en el movimiento de iones de potasio a través de la membrana del axón. Ahora sabemos que la concentración de iones de potasio y sodio no es la misma dentro que fuera de las células, y que el desequilibrio provoca una diferencia de voltaje que es lo que se conoce como potencial de membrana. El movimiento masivo de iones de potasio y de sodio hacia dentro y hacia fuera de la neurona provoca un cambio súbito del voltaje, denominado potencial de acción, y el impulso eléctrico permite que el sistema nervioso central coordine la actividad de un organismo.

En 1947 Hodgkin y Huxley presentaron su complejo modelo matemático del potencial de acción, que predecía el movimiento de los iones, en diferentes condiciones, a través de canales iónicos. 

Genética bacteriana (1946)

En los animales y las plantas, los padres transmiten información genética a sus hijos mediante un proceso de transferencia vertical de genes. Las bacterias se reproducen principalmente dividiéndose en dos células hijas genéticamente idénticas (fisión binaria). Durante mucho tiempo los científicos creyeron que las bacterias eran demasiado primitivas e inapropiadas para los análisis genéticos. En 1946 Joshua Lederberg y Edward Tatum, demostraron que, en las bacterias, el material genético se transmite entre dos organismos que no tienen una relación padre - hijo mediante el proceso de recombinación genética, lo que luego se reconocería como transferencia genética horizontal. Demostraron incluso que este mecanismo es común incluso entre bacterias muy alejadas y es un proceso de evolución bacteriana. Asimismo, está en la base de desarrollo de resistencia a los antibióticos: cuando una célula bacteriana adquiere resistencia a un fármaco, pueden transferir rápidamente los genes resistentes a otras muchas especies.

Existen tres formas principales en que la transferencia horizontal puede propagar genes entre miembros de la misma especie bacteriana u otras distintas: transferencia de bacteria a bacteria (conjugación); transferencia de virus (bacteriófago) a bacteria (transducción); y transferencia  libre de ADN (transformación).

Los tres tipos de transferencia horizontal del genoma bacteriano

Un ejemplo de árbol filogenético, el de la vida

Árboles filogenéticos

Grupos monofiléticos, polifiléticos y parafiléticos

Sistemática filogenética (1950)

En 1866 Ernst Haeckel introdujo el término de filogenia para referirse al estudio de la historia evolutiva de las especies. Para construir filogenias, la disciplina de la sistemática busca entender la interrelaciones evolutivas de los organismos vivos. En 1950, el biólogo alemán Willi Hennig introdujo el concepto de sistemática filogenética, que intenta identificar la relación evolutiva entre los organismos actuales y los extintos. 

La historia evolutiva de un grupo de organismos puede ilustrarse en un diagrama ramificado conocido como árbol filogenético. Ese árbol se compone de una serie de puntos de bifurcación, cada uno de los cuales representa la divergencia de dos linajes de un antepasado común. El árbol filogenético propone hipótesis de conexiones evolutivas, no las establece. 

El análisis filogenético tradicional se basaba en características externas observables que podían resultar engañosas. Los avances en biología molecular han permitido analizar complejas secuencias de genes, cromosomas e incluso genomas completos. Al comparar las secuencias de ADN de los diferentes genes de distintos organismos, pueden detectarse antepasados comunes que no resultarían evidentes por similitud física. La cantidad de secuencias de nucleótidos entre un par de genomas de diferentes organismos indica cuánto tiempo hace que tuvieron ese antepasado común. 

Generalidades e importancia de los plásmidos

El "hackeo" de las bacterias

Clonación de un gen en un plásmido vector

Plásmidos (1952)

En 1952 Joshua Lederberg introdujo el término plásmido para referirse a moléculas de ADN que se encontraban aparte y fuera del ADN cromosómico. En 1973 Herbert Boyer y Stanley Cohen demostraron que era posible transferir un gen de una especie a otra, y que el gen trasplantado podía funcional normalmente en su huésped. Los plásmidos también desempeñan una función primordial en la evolución de la resistencia microbiana y la capacidad de los microbios para causar enfermedades.

Los plásmidos pueden reproducirse en la célula independientemente de los cromosomas y suelen tener genes estructurales y accesorios. Los genes estructurales intervienen en la replicación y el mantenimiento de los plásmidos, mientras que los accesorios no son esenciales para la supervivencia del huésped (bacteria donde reside el plásmido), pero pueden codificar funciones que le aportan beneficios, como la capacidad de degradar contaminantes ambientales y utilizarlos como fuente de carbono y nitrógeno, o de conseguir que el huésped desarrolle resistencia a los efectos tóxicos de antibióticos o metales pesados. Además, los plásmidos pueden transferirse entre distintas especies bacterianas. Esa transferencia es un mecanismo importante por el cual las bacterias pueden adquirir de forma rápida y sencilla una serie de características, lo que les permite adaptarse a un entorno cambiante. Los plásmidos se han utilizado mucho como instrumento de ingeniería genética; por ejemplo, en clonación de genes, terapia génica y producción de proteínas recombinantes. En 1978 Boyer produjo insulina humana sintética con esta técnica. Unió un elemento ajeno al ADN, como un gen de insulina, al plásmido, y l introdujo en la célula bacteriana. La replicación del plásmido en la célula bacteriana produjo numerosas copias de la insulina recombinante. 


¿Cómo se inició la vida según el experimento de Miller y Urey?

El experimento de Miller y Urey (1953)

El experimento de Miller y Urey, publicado en 1953, se basó en condiciones experimentales que pretendían simular las que se creía que debían de existir en la atmósfera terrestre hace unos 4000 millones de años. En el experimento de Miller y Urey de expuso una mezcla de agua y los gases amoniaco, metano e hidrógeno a chispas eléctricas constantes, que emulaban las tormentas de rayos tan frecuentes en tiempos primigenios. Al cabo de una semana surgieron moléculas orgánicas y, lo que es aún más importante, un 2% eran aminoácidos, componentes básicos de la vida. 

El experimento y sus resultados fueron sometidos a análisis críticos. Se pone en duda la similitud entre los compuestos existentes en la atmósfera primigenia y los del experimento, y si dichas sustancias químicas no se expusieron tal vez a una energía eléctrica muy superior a la presente en los orígenes del planeta. Una de las críticas más contundentes sugería que los aminoácidos de nuestro planeta primitivo pudieron tener un origen extraterrestre. En 1969 un meteorito impactó en Murchison, Australia, y se constató que tenía más de 90 aminoácidos. 


Transcripción de ADN y traducción a proteínas

Traducción de proteínas en los ribosomas detallada

Ribosomas (1955)

En 1930 el biólogo belga Albert Claude diseñó el proceso de fraccionamiento celular, que consiste en romper una célula para liberar su contenido y luego centrifugarlo a diferentes velocidades para separar los distintos componentes según su peso. En 1955, George Palade estudió esas fracciones con la ayuda del microscopio electrónico. Palade fue el primero en identificar y describir, en 1958, unos pequeños gránulos a los que dio el nombre de ribosomas; era allí donde se producía la síntesis de proteínas de la célula.

Todos los organismos vivos tienes ribosomas en todas sus células, orgánulos que reciben indicaciones por parte del código genético para funcionar como fábricas donde se lleva a cabo la síntesis de proteínas. Las células con índices elevados de síntesis proteínica, como las pancreáticas, tienen millones de ribosomas. El ADN transmite instrucciones al ARN mensajero para la fabricación de proteínas específicas. Luego, el ARN de transferencia lleva los aminoácidos al ribosoma, donde se añaden secuencialmente a una cadena de proteínas creciente. 

Los ribosomas de las células eucariotas (de animales, plantas y hongos) y procariotas (bacterianas) tienen estructuras y funciones similares. En las primeras, están unidos a membranas reticulares endoplasmáticas rugosas, mientras que en las segundas están suspendidos en el citosol, el componente líquido del citoplasma. Palade determinó que los ribosomas están compuestos por subunidades grandes y pequeñas, y que existen sutiles diferencias en cuanto a densidad entre los ribosomas de células procariotas y eucariotas. 

El código genético. Cada secuencia de tres bases nitrogenadas (codón) (A,C,G,T,U) codifican para un determinado aminoácido. Cada aminoácido se une con el siguiente en los ribosomas para formar péptidos y finalmente proteínas siguiendo este código incluido en el ARN mensajero. 

Composición del ARN de transferencia. Formado por cuatro brazos: el de fijación, el izquierdo, el derecho y el anticodón formado en el vértice por tres bases nitrogenadas complementarias (anticodón) a la secuencia de tres aminoácidos de la cadena peptídica en formación (codón)

Componentes de un lisosoma

¿Qué son y para qué sirven los lisosomas?

Lisosomas (1955)

En 1955, investigaciones llevadas a cabo por Christian de Duve revelaron la presencia de un orgánulo intracelular desconocido, con estructura de tipo saco rodeada por una membrana. El contenido del orgánulo tenía propiedades líticas (capacidad para descomponer tejidos), de modo que de Duve lo llamó lisosoma

Los lisosomas tienen un papel importante en la salud y la enfermedad. Cuando funcionan normalmente, contienen unas 50 enzimas hidrolasas ácidas, capaces de descomponer proteínas, ácidos nucleicos, hidratos de carbono y grasas. En los glóbulos blancos se encuentran en mayor cantidad por su actividad inmunitaria. Actúan como el sistema digestivo de la célula: descomponen los materiales tomados del exterior de la célula, como virus y bacterias, y desempeñan una función de organización celular interna deshaciéndose de los orgánulos envejecidos o sobrantes. Asimismo, los lisosomas ayudan a proteger a las células durante periodos prolongados de inanición. Mediante un proceso de autofagia, los lisosomas digieren componentes intracelulares, y sus metabolitos se reciclan para sintetizar moléculas esenciales para la supervivencia de la célula.


Estructura molecular de la ADN polimerasa I

Proteínas requeridas para la replicación del ADN y sus funciones

Replicación del ADN paso a paso

ADN polimerasa (1956)

En el año 1956, durante las investigaciones llevadas a cabo por Arthur Kornberg y, trabajando con Escherichia coli (relativamente sencilla), descubrió la enzima que ensambla los componentes básicos del ADN. Dicha enzima, llamada ADN polimerasa I, está presente en todos los organismos vivos, con pequeñas variaciones.

El descubrimiento de la ADN polimerasa I, también conocida como Pol I, es muy importante en biología, pues desempeña un papel fundamental en el proceso de la vida, ya que nos ayuda a entender cómo se reproduce y se repara el ADN. Antes de la división celular, la Pol I duplica todo el contenido del ADN de la célula. A continuación, la célula madre pasa una copia de su ADN a cada célula hija; así la información genética se transfiere de una generación a la siguiente. Kornberg descubrió que la Pol I lee una hebra de ADN intacta y la utiliza como plantilla para sintetizar una nueva hebra, idéntica a la original.

Además, algunos miembros de las siete subclases de ADN polimerasas (como la Pol I), tienen la capacidad de revisar la plantilla del ADN original, detectar, eliminar y corregir posibles errores, y así producir una nueva hebra de ADN libre de errores. Otras ADN polimerasas simplemente reproducen, sin reparar, lo cual perpetúa mutaciones en el genoma o incluso puede suponer la muerte de la célula. 



Proceso de replicación del ADN llevado a cabo por la ADN polimerasa I

Tipos de ADN polimerasas

Dogma central de la biología molecular

Ciclo vital del virus del VIH. Transcriptasa inversa

Transcriptasa inversa

Dogma central de la biología molecular (1958)

En 1958 Crick propuso el dogma central de la biología molecular, mediante el cual afirmaba que la información genética fluye en una sola dirección del ADN (transcripción) y el ARN (traducción) y hasta las proteínas.

La información se transcribe formando un ARN mensajero a partir de una sección de una de las dos hebras del ADN que servirá de plantilla. Luego el ARN mensajero viaja del núcleo al citoplasma, donde se una a un ribosoma. El ribosoma traduce las instrucciones del ARN mensajero de acuerdo con el código genético: cada secuencia de tres nucleótidos de ARN mensajero (codón) corresponde a un aminoácido concreto (hay 20 diferentes que forman proteínas). Según se traduce la información del ARN mensajero en el ribosoma, se une un aminoácido detrás de otro hasta formar una proteína. La replicación consiste en conseguir una copia exacta de la cadena de ADN que pueda ser transmitida a las células hijas cuando posteriormente se dividan por el proceso de mitosis

La secuencia nunca se traducía al revés, del ARN al ADN. El descubrimiento de la transcriptasa inversa en 1970 por parte de Howard Temin trastocaba la premisa del dogma central. Luego se descubrió que la transcriptasa inversa está presente en los retrovirus, como el virus del VIH. Además, como otra excepción al dogma central, no todo el ADN interviene en la programación de la síntesis de proteínas. En torno al 98% del ADN humano es ADN no codificante (a veces denominado "ADN basura"); su función biológica aún no se ha determinado.



Los movimientos de las abejas y el origen del altruismo animal

Genes egoístas, animales altruistas

Altruismo animal (1964)

El concepto de altruismo (la preocupación desinteresada por los demás) es una virtud tradicional en numerosas culturas. Se dice que una persona es altruista si ejecuta un acto con la intención consciente de ayudar a otra. Pero hay animales que no se creen capaces de un pensamiento consciente y sin embargo también realizan actos que se considerarían altruistas. Al analizar el altruismo, los expertos en biología animal observan las consecuencias del acto, no su intención consciente. 

Además, la conducta altruista puede beneficiar a otro organismo con gran coste para el altruista. Algunos de esos actos parecen contradecir la teoría de la selección natural de Darwin, según la cual los animales actúan para garantizar su propia supervivencia y su reproducción. 

En 1964 W. D. Hamilton, planteó la hipótesis de la eficacia biológica inclusiva o la selección de parentesco para explicar esa conducta altruista. Hamilton postulaba que la relación genética anormalmente próxima favorece que se vele por la supervivencia del otro (caso de la favorecer a la abeja reina fértil capaz de transmitir los genes). Asimismo, se observan conductas altruistas entre miembros no emparentados de la misma especie, que intercambian favores.  Es lo que se conoce como altruismo recíproco.


Fases del ciclo celular

Regulación del ciclo celular

Regulación del ciclo celular (más completo)

El papel de las CDK en el ciclo celular

Puntos de control del ciclo celular (1970)

La división celular tiene un papel fundamental en la vida del organismo, incluidas funciones tan esenciales como la reproducción, el crecimiento y el desarrollo, así como la renovación y reparación de células envejecidas o dañadas. Muchos fármacos contra el cáncer actúan interrumpiendo fases concretas del ciclo celular.

El ciclo celular es un proceso continuo que tiene como resultado la formación de dos células hijas a partir de una única célula madre que se divide. El ciclo celular tiene dos fases principales: interfase y fase mitótica. Durante la interfase, la célula crece y los cromosomas se reproducen. Alterna con la fase mitótica, durante la cual tiene lugar la mitosis (división del núcleo) y la citocinesis (división de la célula). La interfase, que consume casi las 24 horas del ciclo celular, excepto una o dos, consta de tres fases: G1, S y G2. Las fases G1 y G2 son periodos entre el final de la división celular y la siguiente fase mitótica, tiempo en que se evalúa el entorno en busca de posibles errores antes de proceder al siguiente paso. 

A partir de 1970 se identificaron mecanismos de punto de control en esos periodos que revisaban el entorno para asegurarse de que se había completado o corregido el paso precedente del ciclo celular. En tal caso, se da la señal para continuar y el ADN se reproduce en la fase S. En la señal para continuar intervienen proteínas llamadas ciclinas y quinasas dependientes de ciclina (CDK). Si las condiciones no son correctas, se corrigen o se destruye la célula;, una célula mal dividida podría derivar en un cáncer. 

Al concluir el ciclo celular, la célula madre a duplicado su tamaño, hay el doble de cromosomas y la célula se ha dividido por la mitad, en dos células hijas genéticamente idénticas con las que se reinicia el ciclo. Los ciclos celulares pueden tomar de 10 a 24 horas en el caso de células intestinales de crecimiento rápido, hasta una vez al año en células hepáticas, o nunca en el caso de células nerviosas o musculares maduras.


Anticuerpos monoclonales rodeando a un antígeno

Anticuerpos monoclonales

Anticuerpos monoclonales (más completo)

Anticuerpos monoclonales (1975)

En 1980 Emil von Behring y Kitasato Shibasaburo introdujeron un antisuero para tratar la difteria y el tétanos. La inmunidad a esas enfermedades se conseguía con la producción de anticuerpos específicos en respuesta a las toxinas bacterianas, que servían como antígenos. En la década de 1950 Michael Potter perfeccionó una técnica para cultivar tumores de células plasmáticas (plasmacitomas) en ratones que producían moléculas de anticuerpos altamente especializadas en respuesta a antígenos específicos. 

En 1975 César Milstein y Kohler fusionaron células del bazo de ratones (fuente rica de linfocitos B de los plasmacitomas) y células del mieloma de ratones para producir hibridomas

Esos hibridomas producen anticuerpos monoclonales, es decir, anticuerpos que son idénticos entre sí porque los produce un tipo de célula inmunitaria; además, pueden producirse de forma ilimitada. El desarrollo de anticuerpos monoclonales se considera uno de los avances más significativos de la investigación biomédica del siglo XX. Se predijo que los anticuerpos monoclonales tenían un amplio abanico de usos terapéuticos y unos efectos muy selectivos, y serían seguros y fáciles de fabricar. En junio de 2014 ya se habían aprobado 30 productos derivados de anticuerpos monoclonales para el tratamiento del cáncer, enfermedades autoinmunes y trastornos inflamatorios, y también como agentes de diagnóstico. 

La mutación en los protooncogenes productores de quinasa deriva en la aparición de células cancerosas

Protooncogenes y genes supresores de tumores

Oncogénesis molecular

Genes cancerígenos (1976)

En 1976 Michael Bishop y Harold Varmus utilizaron el RSV (virus del sarcoma de Rous) para demostrar cómo se forman tumores malignos a partir de genes de células normales. Los oncogenes son partes concretas del material genético de ciertos virus que pueden provocar la transformación de una célula normal en cancerosa cuando reciben la influencia de otras partes del virus, de una radiación o de determinadas sustancias químicas. Descubrieron que el oncogén del RSV no era un auténtico gen viral, sino más bien un gen de una célula normal (un protooncogén) que el virus había adquirido durante la replicación en la célula huésped y luego arrastrado. Los protooncogenes son genes que codifican una enzima quinasa, que desencadena señales que estimulan el crecimiento y la división de las células normales, estos genes si mutan, pueden provocar cáncer. 

Durante el ciclo celular, el ADN dañado en los genes se suele reparar o destruir. Si esos mecanismos de reparación o destrucción son inadecuados, se producen mutaciones y el daño genético se transmite a células hijas. El cáncer aparece cuando células normales del organismo sufren un cambio irreversible en su material genético. Dos clases de genes regulan el crecimiento de las células: protooncogenes y genes supresores tumorales. Una mutación en cualquiera de ellos puede derivar en cáncer. Las mutaciones en los protooncogenes pueden provocar una estimulación excesiva y un crecimiento descontrolado de la célula, mientras que las mutaciones en los genes supresores tumorales pueden hacer desaparecer los frenos que controlan el crecimiento celular.

Biomagnificación de contaminantes a lo largo de una cadena trófica

Biomagnificación (1979)

La biomagnificación (o bioacumulación) es el proceso por el que una sustancia dañina se va concentrando cada vez más a medida que asciende por la cadena alimentaria. Ello puede ilustrarse con la concentración creciente de PBC (policlorobifenilos) en el organismo (en ppt - partes por millón) a medida que se sube por la cadena alimentaria  en los Grandes Lagos: fitoplancton, la base de la cadena alimentaria (0,025) --> zooplancton (0,123) --> eperlano, un pez pequeño (1,04) --> trucha, un pez más grande (4,83) --> huevos de gaviota argéntea (124) -- una biomaginificación de casi 5000 veces!!


Cultivo transgénico, Solanum Lycopersicum (planta del tomate)

Ventajas e inconvenientes de los cultivos transgénicos

Cultivos transgénicos (1982)

El de los cultivos transgénicos o modificados genéticamente (MG) es un tema muy polémico desde el punto de vista emocional, político y económico, porque contrapone los avances científicos en biotecnología y lo que algunos consideran serios riesgos para la salud y la sociedad. 

Los organismos transgénicos o modificados genéticamente (OMG) se basan en la recombinación genética, esto es, la transferencia natural de ADN entre organismos. Los cultivos MG consisten en alterar la composición genética de las plantas mediante la inserción de uno o más genes en su acervo génico para mejorar características consideradas deseables. Por lo general, para ello se utiliza un dispositivo biobalístico (pistola génica), que dispara ADN a la planta a alta presión, o bien agrobacterias, parásitos bacterianos de las plantas que transfieren genes de forma natural. 


Reacción en cadena de la polimerasa (PCR)

Etapas del proceso de PCR

Reacción en cadena de la polimerasa (1983)

A partir de una cantidad muy reducida de ADN, con un solo tubo de ensayo, unos reactivos básicos y una fuente de calor, la reacción en cadena de la polimerasa (PCR) permite producir millones de copias puras de ADN en unas horas. 

El procedimiento consta de tres pasos principales, que se llevan a cabo a distintas temperaturas. En el primer paso, la muestra de ADN de doble hebra se somete a una temperatura elevada que provoca su división en dos piezas de ADN de una sola hebra. Cada hebra sirve como plantilla de la secuencia del ADN que habrá que copiar. Tras añadir un cebador, la enzima polimerasa (Taq) pasa por la plantilla, la lee y recoge una copia de la molécula de ADN de doble hebra. Esto se repite de 30 a 40 veces en un termociclador automatizado, donde el número de copias de la plantilla aumenta de forma exponencial con cada ciclo.

Las aplicaciones de la PCR van desde la investigación en biología molecular hasta aplicaciones forenses como el análisis de huellas dactilares en el escenario de un crimen. Más en concreto, la PCR se ha utilizado para diagnosticar defectos genéticos, para detectar el virus del sida en células humanas, para establecer relaciones de parentesco y para relacionar a personas con muestras de sangre o cabello en investigaciones criminales. Los biólogos evolutivos han podido generar grandes cantidades de ADN a partir de pequeñas muestras halladas en restos fósiles. 

Huella genética (1984)

La huella genética (también llamada prueba de ADN, análisis de ADN o perfil de ADN) se basa en el análisis de minisatélites, que son determinadas secuencias de ADN que no contribuyen a la función genética y se repiten recurrentemente en algunos cromosomas. El ADN se extrae de muestras de células, se purifica y se coloca sobre un gel sometido a una corriente eléctrica (electroforesis).

Del ADN total, un 99,9% es idéntico en todas las personas, y solo un 0,1% es único. Se calcula que hay una posibilidad entre 30 000 millones de que dos personas que no sean gemelas monocigóticas tengan huellas genéticas idénticas.



Proceso fisiológico de la leptina

Fisiología del hambre y la saciedad

Leptina, la hormona de la delgadez (1994)

La leptina es una proteína de 167 aminoácidos que se fabrica principalmente en las células grasas y actúa de forma multifacética en el hipotálamo. Bloquea el neuropéptido Y (NPY), un estimulante natural del apetito que las células liberan en el intestino y el hipotálamo. Ya se sabía que el NPY era un componente clave en la regulación del apetito: pequeñas dosis del mismo da ganas de comer, mientras que la destrucción de los nervios del NPY causan la pérdida del apetito. Asimismo, la leptina favorecía la síntesis de la hormona estimulante del melanocito alfa (alfa - MSD), una hormona proteica producida en el cerebro que puede suprimir el apetito (pero cuya contribución a la pigmentación de la piel está mucho más establecida).

Se ha concluido que la leptina ayuda al cuerpo a adaptarse a la inanición. En condiciones fisiológicas normales, cuando se reduce la grasa corporal, los niveles plasmáticos de leptina se reducen, lo que provoca un aumento del apetito y una reducción del gasto de energía, que se mantienen hasta que se restablece la masa de grasa corporal. 

¡Crea tu página web gratis! Esta página web fue creada con Webnode. Crea tu propia web gratis hoy mismo! Comenzar