Doctor Miguel José Yacamán
Director del Departamento de Física y Astronomía Universidad de Texas San Antonio
La Universidad de Texas, en San Antonio, es la segunda universidad del sistema. Tenemos un programa de Doctorado en Física, en colaboración con el Southwest Research Institute y con la Universidad de Brownsville.
Quisiera primero mencionar en qué era estamos viviendo. La Era que define a la humanidad es básicamente el tipo de materiales que utilizamos; de hecho, durante millones de años se utilizaron piedras, y ésta fue la Edad de Piedra; por un periodo que duró cientos de años, se utilizó bronce, cuando se descubrió cómo hacer aleaciones; después, el hierro y el acero, que duró alrededor de ciento cincuenta años, y fue lo que lanzó la Revolución Industrial.
EDAD DE LA NANOTECNOLOGÍA
Gracias al hierro y al acero se pudieron hacer ferrocarriles y varias cosas. De hecho, esta época terminó al final de la Segunda Guerra Mundial, cuando empezó la Edad de los Materiales Electrónicos, que duró cincuenta años, y ahora estamos en la Edad de la Nanotecnología, que no sabemos cuánto tiempo va a durar. Aquí quiero remarcar que la física juega un papel fundamental en el desarrollo de la cultura humana.
En los siglos XVI y XVII, cuando Kepler hizo sus descubrimientos de las leyes que rigen los movimientos de los planetas, la astronomía deja de ser una ciencia observacional, la astrología desaparece, y la física y la astronomía se convierten en una sola ciencia, y por primera vez los científicos pueden predecir exactamente el movimiento de los planetas basados en cálculos, basados en movimiento.
En el siglo XIX, las matemáticas y la física se vuelven una sola; de hecho, las matemáticas se vuelven el lenguaje natural de la física, se desarrolla la mecánica clásica y surgen las Leyes de Newton, y entonces queda un marco muy claro de desarrollo. Se desarrollan el cálculo, las ecuaciones diferenciales, todo esto.
En el siglo XIX, la física y la ingeniería surgen como una sola fuerza; de hecho, aquí se descubre curiosamente al revés: los ingenieros descubren las leyes de la termodinámica, no los físicos; pero los físicos las incorporan en la física, y se encuentran las leyes de conservación de energía, la entropía, etcétera… y eso nos permite el diseño de los motores y el entender bajo qué condiciones se puede atraer energía.
REVOLUCIÓN INDUSTRIAL
Finalmente, se descubren las ondas electromagnéticas; todo el espectro, hasta los rayos x y los rayos gamma. Esta unión entre la ingeniería y la física es la que realmente empuja la Revolución Industrial. Ésta es una época dorada para la ciencia. En la primera mitad del siglo XX ocurre un fenómeno extraordinariamente interesante: la mecánica cuántica aparece y trata de explicar el átomo; se descubren las leyes de la mecánica cuántica; previamente, con Einstein, la relatividad había hecho ya un primer intento con la física clásica, pero en realidad la mecánica cuántica es la que cambia todo el juego, y en ese momento la química y la física se vuelven una sola.
De hecho, por primera vez puede explicarse el átomo; por primera vez pueden explicarse las moléculas. ¿Cómo se forman las moléculas? ¿Qué quiere decir la tabla periódica? Se puede explicar directamente cómo es el amarre químico, y el mismo Niels Böhr decía: “la física y la química ya quedaron unidas para siempre”.
Pasa una cosa muy curiosa: en aquella época, los químicos reconocen la necesidad de hacer cálculos utilizando, física y a su forma de trabajar le llaman “físicoquímica”, mientras que los físicos que hacen química les llaman: “chemical physics”. De hecho, había dos journals: el journal de los físicos, que se llamaba “Physical Chemistry Journal”, y el de los físicos, que era “Chemical Physics”. Ahora hay un journal, que realmente es el más seguido: se llama: “Physical Chemistry-Chemical Physics”, donde ya aceptaron la unión los dos. Éste es un cambio muy notable.
CIENCIA DE MATERIALES
El siguiente cambio que yo quisiera mencionar es el que ocurre en la segunda mitad del Siglo XX. Aquí la ciencia de los materiales, que en realidad era más bien la metalurgía, y un poquito la industria relacionada con el petróleo, la de los polímeros, el hule. En todos estos materiales, el hule era un material estratégico, sobre todo en la Segunda Guerra Mundial. Había la idea de cómo hacer hule sintético, y todo esto se llamaba ciencia de materiales.
Pero de repente surge una idea comercial muy importante. Al final de la Guerra Mundial, 1946, todo el desarrollo de la radio había sido un gran triunfo comercial. En aquella época decían: “si logramos este gran triunfo con la radio, la televisión que en aquel momento era una posibilidad, va a ser un triunfo todavía mayor; va a ser un enterprise comercial todavía más grande. Las computadoras, que se veían en ese momento como una posibilidad, van a ser algo todavía más grande.
Pero, en aquel momento, lo que impedía este desarrollo era el famoso tubo electrónico, el bulbo; la electrónica de la radio estaba basada en los inventos de principio de siglo, que eran básicamente el tubo, el bulbo. El bulbo era muy grande, era muy ineficiente en energía, de tal manera que si uno iba a hacer una computadora o una televisión, pues iba a ser algo tan grande por los bulbos, que iban prácticamente a calentar toda la casa; la casa iba a ser un sauna. Entonces, era necesario mejorar en la electrónica y había una motivación muy grande para producir mejores materiales.
DISPOSITIVOS ELECTRÓNICOS
En aquella época, cuando terminó la Guerra Mundial, e incluso antes de la Guerra Mundial, los físicos trabajaron en el átomo, y esto dio origen, como todos saben, a la bomba atómica y a todo este tema nuclear. Pero otro grupo de físicos dijo: “vamos a ver qué predice la mecánica cuántica sobre un sólido. Y la predicción fue algo muy interesante: que en el sólido ya había bandas de energía y que uno podía utilizar esas bandas de energía para hacer dispositivos electrónicos.
En ese entonces, los laboratorios de investigación de la compañía American Telephone and Telegraph estaban en Nueva Jersey. Grupos de científicos trabajaban ahí, prediciendo la teoría de bandas de materiales y tratando de hacer una alternativa al bulbo de vacío. Así fue como básicamente dos investigadores: Bardeen y Brattain -luego se les colgó su jefe, que se llamaba Shockley y apareció también como inventor-, hicieron el primer transistor. Ese transistor era del tamaño, probablemente, de la mitad de esta mesa.
Entonces, imagínense que estas gentes llegan con su manager y le dicen: “aquí está el transistor, funcionando; ahora, todo lo que tenemos que hacer es hacerlo chiquito, para poderlo poner en computadoras”. Imagínense lo que representaba comercialmente para el manager de una compañía pensar en ese transistor. “Ahora lo vamos a reducir; lo vamos a hacer chiquito”, y sí funcionó, y lo más sorprendente es que ahora, si ustedes ven la computadora que usan, ésta tiene dos mil 600 millones de transistores. Eso es lo que tiene. En un chip hay dos mil 600 millones de transistores.
¿Por qué? Porque la idea fue desarrollar los materiales. ¿Qué había que hacer? La idea fue primero crear un cristal de silicio puro, grandote, y se desarrolló la teoría del crecimiento de cristales. Después se cortó y se dijo: “vamos a pintar circuitos en el cristal” y así se fue haciendo. Por cierto, en el inter, un punto interesante es que cuando los laboratorios Bell se dieron cuenta, estaban en New Jersey, del otro lado, en Manhattan, se dieron cuenta de que para seguir adelante tenían que conectarse con una universidad, y la universidad local de New Jersey era Princeton University.
COSTOSA NEGATIVA
En aquella época Princeton estaba llena de estrellas, sobre todo en física, y no les interesó; les parecía que esto era muy pedestre, no era del nivel de esa universidad. Einstein estaba ahí, y era considerado ya un viejito irrelevante, al que nadie le hacía caso, porque su época había pasado, ya nadie iba a verlo, y todas las demás estrellas estaban haciendo su física moderna, y le dijeron a Bell que no, que muchas gracias, y de hecho por eso buscaron una universidad nueva que estaba ahí, en el sur, en medio de los campos de frutas de California, Stanford.
Y de ahí surgió toda la historia del Silicon Valley, en Stanford. Ésa es la explicación que dan los pioneros de por qué el Silicon Valley no está en New Jersey, sino en Stanford. Ésa fue exactamente la razón, para que vean cómo una universidad puede jugar un papel tan importante como para empujar todo esto históricamente.
El asunto fue que en todo este desarrollo de materiales, se llegó a esto. Ahora hay una ley, que no es ley, sino más bien un business plan, porque una de las personas que fundó Intel, uno de los tres inventores, el manager de este grupo, que de hecho era bastante inteligente, fundó una compañía que se llamaba Fairchild, y era intolerable.
No lo aguantaron sus amigos, y se salieron, y se salió toda la gente que trabajaba con él. Los que se salieron fundaron una compañía, que se llamó Intel, y uno de los que fundó Intel se llamaba Moore. En el business plan de Moore, cuando inventaron el microprocesador, él decía que la idea era duplicar el número de transistores cada 18 meses. Ése era el business plan, y lo han seguido, excepto que la ley de Moore ya prácticamente llegó a un alto. Realmente ya no se está haciendo. ¿Por qué? ¿Cuál es el problema? Porque ya los transistores son tan chiquitos, que hay dificultades de manejo. Están a escala nanométrica, y había muchos problemas técnicos. Ya no es muy factible manejarlos directamente.
¿Cuál es la respuesta? La respuesta que se está buscando es que ya no sean microchips, sino nanochips. Si queremos seguir avanzando, hay que hacer nanochips o buscar otras geometrías, como tridimensionales, microchips tridimensionales, lo que realmente está mucho más complicado. Finalmente, un transistor no es otra cosa que un semiconductor N con un semiconductor P dopados y tiene lo que se llama un aislante, que es un gate, que antes era óxido de silicio, y ahora es óxido de habdio que tiene resistencia suficiente de un metal.
COPIA DE LA NATURALEZA
Esto se puede hacer tan chiquito como uno quiera. El problema es cómo se manipula esto. Entonces, la idea es copiar un poco lo que hace la naturaleza. Si ustedes ven una concha, una radiolaria, todos estos materiales están hechos de un solo elemento: carbonato de calcio o silicio u óxido de silicio, y son cristalitos ordenados en forma muy simétrica, por proteínas. Las proteínas tienen la propiedad de ordenar la estructura de la materia.
Si se aprendiera cómo hacer eso, lo que se está prediciendo o lo que va a pasar es que los nuevos transistores, los transistores que se prevén para un futuro no muy lejano, utilicen proteínas para armar circuitos de transistores; es decir, proteínas que vayan poniendo juntos los transistores y que vayan armando los microchips. Eso quiere decir que en el futuro muy cercano, de hecho está pasando, bioquímicos o gente especializada en proteínas, proteómica, tendrán que trabajar en la industria electrónica, para hacer un aporte. Desde luego, tendremos que aprender un poquito más de cómo manejar las proteínas.
Lo que está pasando entonces o lo que va pasar en el siglo XX,I creo yo, es mi humilde opinión, es que la física y la biología se van a convertir en una sola. Lo que pasa es que en realidad somos muy limitados en nuestras matemáticas; si ustedes le piden a un físico que resuelva el átomo de hidrógeno, lo hace fácilmente; resuelve el átomo de helio, dos electrones en un núcleo; ya le cuesta más trabajito, tiene que hacer aproximaciones; que resuelva el átomo que sigue, que es litio, ahí ya empieza a sudar, porque ya no puede hacerlo exactamente, sino con más aproximaciones, y así se sigue entonces a los átomos más complejos, con base en aproximaciones.
Para que el cálculo salga exacto, hay que usar una computadora; entre más grande la computadora, más átomos se pueden estudiar. Y ahora, si le pido el estudio de una molécula, necesita más y más computadoras. Gracias a las computadoras que tenemos ahora, ya es posible entrar a proteínas, utilizando mecánica cuántica, o a moléculas complejas; ya cada vez estamos saliendo más. De hecho, los físicos le lamamos “Primeros Principios” al usar mecánica cuántica, porque, al resolver la ecuación de Schrodinger, se puede usar toda la información; se pueden obtener todas las características de la molécula.
APRENDER DE LA NATURALEZA
Por otro lado, también estamos empezando a entender las biomoléculas desde otra óptica; lo que puede llamarse DNA, hay que llamarlo como un biopolímero, y verlo con propiedades de un polímero, como un material que tiene resistencia, que tiene conductividad, que tiene torsión, en fin, todas las cosas. Quien va a estudiar esto puede ser un físico, o un químico, o un ingeniero, o un científico, o un bioquímico, pues todo esto se está convirtiendo en realmente lo mismo. Ya no vamos a encontrar una gran diferencia. Tenemos que aprender muchas cosas basadas en la naturaleza; por ejemplo, cómo interaccionan los sistemas biológicos con la materia digamos nano; por ejemplo, cómo funcionan los equilibrios o los sistemas no equilibrio.
Los seres humanos son sistemas de no equilibrio; los físicos o los científicos generalmente estudiamos sistemas de equilibrio; hay que entender cómo funciona el no equilibrio, cómo se convierte energía a este nivel. Es decir, todos los mecanismos de conversión de energía, la respuesta a los estímulos. Es importantísimo decir cuáles son, por ejemplo, algunas de las cosas que tenemos en un grupo en que estamos estudiando enfermedad mental, basados en cómo se comunican las neuronas, como se hablan entre sí las neuronas, para comunicarse y ver la enfermedad mental como una falla, en la forma en que se abren los switchs, la comunicación y sobre todo la manera en cómo se detectan cosas, y sobre todo y muy importante, cómo se definen los arreglos jerárquicos en la célula.
¿Cómo podemos modificar proteínas? Y ¿cómo podemos hacer que se activen? ¿Qué podemos hacer para hacer motores basados en pro proteínas? Es decir, activarlas como motores. Desde luego, si queremos hacer cosas interesantes, hay que aprender a hacer todos estos motores. Lo que hay que hacer ahora es que a un ingeniero clásico, que se basaba en física, matemática y química, ahora hay que agregarle una parte más, que es la biología, como parte de la formación. Esto es, digamos, la educación del futuro, que ya hay que introducirla en nuestros programas. Si alguien estudia biología, porque la matemática y la física no le entraban, pues ya se amoló; va a tener que cambiar.
MICROSCOPÍA ELETRÓNICA
Y nada más quisiera yo hablar un poquito de microscopia electrónica. Uno de los ejemplos más impactantes de una compañía que funciona es Carl Zeiss. Carl Zeiss fue una compañía que formó un profesor de física, que se llamaba Ernst Abbe, en la Universidad de Jena, en Alemania, a principios del siglo XX, con un mecánico que se llamaba Zeiss. Era el tornero de la universidad y los dos se pusieron de acuerdo para hacer un microscopio. Zeiss era el que hacía el microscopio, y Abbe era el que le daba el diseño.
Cuando se descubrió que los electrones eran ondas, obviamente el microscopio electrónico se dio como una gran posibilidad para estudiar sobre todo biología; el problema que surgió es que a la hora de poner electrones, en vez de luz aparecieron aberraciones en la imagen, muy difíciles de corregir. Con luz las aberraciones son fáciles de corregir, porque, cuando los lentes son electromagnéticos es mucho más difícil. Y eso tardó mucho más tiempo.
Por eso los microscopios electrónicos no fueron tan efectivos al principio, y las lentes pueden de hecho introducir aberraciones significantes. Esto lo descubrió hace 50 años Sherzer, un profesor alemán que puso a uno de sus alumnos a resolver un problema y le dijo: busca una manera de corregir la aberración, sobre todo la aberración esférica. Este muchacho era un húngaro, que inventó una técnica para corregirlo: No pudo, no le funciono. La técnica se llamaba holografía, y resulta que la holografía se hizo muy popular para luz.
El muchacho se ganó el Premio Nobel. La holografía todo el mundo la usa; la venden para todo tipo de cosas, pero no resolvió el problema que le habían dado; de hecho, después se vio que la holografía para electrones es muy útil, pero no resolvió el problema. Finalmente, hace alrededor de 10 años se encontró una manera de corregir la aberración esférica, y ya se logró romper la barrera del ångström en resolución.
Los microscopios electrónicos, algunos de los modernos, ya tienen menos de un ångström de resolución; de hecho, el que tenemos en San Antonio tiene .8 Å de resolución. Acaban de establecer uno en Berkeley, que tiene .5 ångström de resolución, que es mejor decir 50 picometros. Éste es el límite que ya no se puede bajar, porque el átomo anda en el orden de 31 picometros; entonces, más abajo la mecánica cuántica, nos dice que ya no podemos sacar información.
Lo que creo que es importante es la posibilidad de estudiar materiales biológicos con microscopia electrónica; uno ya puede tener un análisis químico puntual. Pero lo interesante es en biología, donde hay muchas cosas excitantes por ver.
NANOPARTÍCULAS PARA ESTUDIAR EL CÁNCER
Finalmente, un área que está activa y que muy pronto va a llegar al mercado es el uso de nanopartículas para investigación de cáncer. Las partículas se utilizan para llegar a un tumor y destruirlo por radiación, ya sea por magnetismo, o por radiación láser y particularmente, lo que a nosotros nos interesa, es que hay una ventana que va de los 600 nanómetros hasta los 1000 nanómetros, que es lo que llamamos la ventana óptica.
En esta ventana, la luz en esta frecuencia atraviesa el cuerpo humano se absorbe en el cuerpo humano. Entonces más hacia los 1000 nanómetros. Después viene la melanina, y enseguida la radiación infrarroja, de tal manera que si uno irradia con un laser infrarrojo atraviesa el cuerpo humano y puede llegar a un tumor, sin la necesidad de ninguna cirugía. La idea es poder hacer llegar al tumor una partícula metálica que se deposite en el tumor; el laser llega al tumor y ahí la partícula se absorbe y entonces se calienta y destruye el tumor.
Al tejido bueno no le pasa nada, porque no se absorbe. La partícula con cierta forma sí absorbe y destruye el tumor, muy localizadamente; o si la frecuencia es menor, en vez de calentarse, se estira y se afloja; entonces genera una señal mecánica, que es de sonido, y uno puede ver una imagen. En realidad, el efecto de la partícula es lo que los físicos llaman plasmones, que es una oscilación colectiva de los electrones; cuando la luz llega, se excita ese plasmon, y uno puede obtener una imagen directamente, y uno puede determinar la señal florescente directamente en el tumor con el video.
Para terminar, déjenme mencionar que uno de los proyectos en los que estamos trabajando es el desarrollo de un mamógrafo óptico portátil, basado en infrarrojo, para detectar cáncer en los primeros estados, basado en la angiogénesis del tumor que desarrolla hemoglobina. Finalmente el mensaje que yo quisiera mencionar es que es importante la innovación. La biología y la física de hecho la nanotecnología todo está unida, y yo creo que lo importante es la interdisciplina; yo dudo que pueda surgir innovación, si no se toma en cuenta la interdisciplina, porque éste es un monstruo de muchas caras y hay que entrarle por todas las caras.