Búsqueda de sitios web

Las computadoras biológicas podrían usar mucha menos energía que la tecnología actual, al trabajar más lentamente


La biología humana es mucho más eficiente energéticamente que la informática actual.

Las computadoras modernas son un triunfo de la tecnología. Un solo chip de ordenador contiene miles de millones de transistores a escala nanométrica que funcionan de forma extremadamente fiable y a una velocidad de millones de operaciones por segundo.

Sin embargo, esta alta velocidad y fiabilidad se produce a costa de un importante consumo de energía: los centros de datos y los electrodomésticos informáticos, como los ordenadores y los teléfonos inteligentes, representan alrededor del 3% de la demanda mundial de electricidad, y es probable que el uso de la IA impulse aún más el consumo.

Pero, ¿qué pasaría si pudiéramos rediseñar la forma en que funcionan las computadoras para que puedan realizar tareas de computación tan rápido como hoy en día y usar mucha menos energía? Aquí, la naturaleza puede ofrecernos algunas soluciones potenciales.

El científico de IBM Rolf Landauer abordó la cuestión de si necesitamos gastar tanta energía en tareas informáticas en 1961. Se le ocurrió el límite de Landauer, que establece que una sola tarea computacional (por ejemplo, configurar un bit, la unidad más pequeña de información de la computadora, para que tenga un valor de cero o uno) debe gastar alrededor de 10⁻²¹ julios (J) de energía.

Relacionado: Historia de las computadoras: una breve cronología

Esta es una cantidad muy pequeña, a pesar de los miles de millones de tareas que realizan las computadoras. Si pudiéramos hacer funcionar los ordenadores a esos niveles, la cantidad de electricidad utilizada en la computación y la gestión del calor residual con los sistemas de refrigeración no sería motivo de preocupación.

Sin embargo, hay una trampa. Para realizar una operación de bits cerca del límite de Landauer, debe llevarse a cabo con una lentitud infinita. Se predice que el cálculo en cualquier período de tiempo finito costará una cantidad adicional que es proporcional a la velocidad a la que se realizan los cálculos. En otras palabras, cuanto más rápido es el cálculo, más energía se utiliza.

Más recientemente, esto se ha demostrado mediante experimentos establecidos para simular procesos computacionales: la disipación de energía comienza a aumentar de manera medible cuando se realiza más de una operación por segundo. Los procesadores que operan a una velocidad de reloj de mil millones de ciclos por segundo, que es típica en los semiconductores de hoy en día, usan alrededor de 10⁻¹¹J por bit, aproximadamente diez mil millones de veces más que el límite de Landauer.

Una solución puede ser diseñar computadoras de una manera fundamentalmente diferente. La razón por la que las computadoras tradicionales funcionan a un ritmo muy rápido es que operan en serie, una operación a la vez. Si, en cambio, uno pudiera usar un gran número de "computadoras" trabajando en paralelo, entonces cada una podría trabajar mucho más lentamente.

Por ejemplo, se podría reemplazar un procesador "liebre" que realiza mil millones de operaciones en un segundo por mil millones de procesadores "tortuga", cada uno de los cuales tarda un segundo completo en hacer su tarea, a un costo de energía mucho menor por operación. Un artículo de 2023 del que fui coautor mostró que una computadora podría funcionar cerca del límite de Landauer, utilizando órdenes de magnitud menos de energía que las computadoras actuales.

El poder de la tortuga

¿Es posible tener miles de millones de "computadoras" independientes trabajando en paralelo? El procesamiento paralelo a menor escala ya se utiliza habitualmente hoy en día, por ejemplo, cuando se ejecutan al mismo tiempo unas 10.000 unidades de procesamiento gráfico o GPU para entrenar modelos de inteligencia artificial.

Sin embargo, esto no se hace para reducir la velocidad y aumentar la eficiencia energética, sino más bien por necesidad. Los límites de la gestión del calor hacen imposible aumentar aún más la potencia de cálculo de un solo procesador, por lo que los procesadores se utilizan en paralelo.

Un sistema de computación alternativo que está mucho más cerca de lo que se requeriría para acercarse al límite de Landauer se conoce como biocomputación basada en redes. Hace uso de proteínas motoras biológicas, que son pequeñas máquinas que ayudan a realizar tareas mecánicas dentro de las células.

Este sistema consiste en codificar una tarea computacional en un laberinto nanofabricado de canales con intersecciones cuidadosamente diseñadas, que generalmente están hechas de patrones de polímeros depositados en obleas de silicio. Todos los caminos posibles a través del laberinto son explorados en paralelo por un gran número de moléculas largas en forma de hilo llamadas biofilamentos, que son impulsadas por las proteínas motoras.

Cada filamento tiene solo unos pocos nanómetros de diámetro y aproximadamente un micrómetro de largo (1.000 nanómetros). Cada uno de ellos actúa como una "computadora" individual, codificando información por su posición espacial en el laberinto.

Esta arquitectura es particularmente adecuada para resolver los llamados problemas combinatorios. Se trata de problemas con muchas soluciones posibles, como la programación de tareas, que son muy exigentes desde el punto de vista computacional para los ordenadores en serie. Los experimentos confirman que un bioordenador de este tipo requiere entre 1.000 y 10.000 veces menos energía por cálculo que un procesador electrónico.

Esto es posible porque las proteínas motoras biológicas han evolucionado para no utilizar más energía de la necesaria para realizar su tarea al ritmo requerido. Por lo general, esto es de unos pocos cientos de pasos por segundo, un millón de veces más lento que los transistores.

En la actualidad, los investigadores solo han construido pequeñas computadoras biológicas para probar el concepto. Para ser competitivo con los ordenadores electrónicos en términos de velocidad y computación, y explorar un gran número de posibles soluciones en paralelo, es necesario ampliar la biocomputación basada en redes.

Un análisis detallado muestra que esto debería ser posible con la tecnología actual de semiconductores, y podría beneficiarse de otra gran ventaja de las biomoléculas sobre los electrones, a saber, su capacidad para transportar información individual, por ejemplo, en forma de una etiqueta de ADN.

Sin embargo, existen numerosos obstáculos para escalar estas máquinas, incluido el aprendizaje de cómo controlar con precisión cada uno de los biofilamentos, reducir sus tasas de error e integrarlos con la tecnología actual. Si este tipo de desafíos se pueden superar en los próximos años, los procesadores resultantes podrían resolver ciertos tipos de problemas computacionales desafiantes con un costo de energía masivamente reducido.

Computación neuromórfica

Alternativamente, es un ejercicio interesante comparar el uso de energía en el cerebro humano. A menudo se considera que el cerebro es muy eficiente desde el punto de vista energético, ya que utiliza solo unos pocos vatios, mucho menos que los modelos de IA, para operaciones como la respiración o el pensamiento.

Sin embargo, no parecen ser los elementos físicos básicos del cerebro los que ahorran energía. La activación de una sinapsis, que puede compararse con un solo paso computacional, en realidad utiliza aproximadamente la misma cantidad de energía que un transistor requiere por bit.

Sin embargo, la arquitectura del cerebro está muy interconectada y funciona de manera fundamentalmente diferente a los procesadores electrónicos y a las biocomputadoras basadas en redes. La llamada computación neuromórfica intenta emular este aspecto de las operaciones cerebrales, pero utilizando nuevos tipos de hardware informático en lugar de la biocomputación.

Sería muy interesante comparar las arquitecturas neuromórficas con el límite de Landauer para ver si los mismos tipos de conocimientos de la biocomputación podrían ser transferibles aquí en el futuro. Si es así, también podría ser la clave para un gran salto adelante en la eficiencia energética de las computadoras en los próximos años.

Este artículo editado es reproducido de The Conversation bajo una licencia Creative Commons. Lea el artículo original.