La fascinación del público por la Inteligencia Artificial (AI) probablemente proviene de nuestros esfuerzos por simular el cerebro, el órgano que nos dota de inteligencia a todas las especies animales y que a los humanos nos distingue como criaturas únicas.
Pero ¿alguna vez lograremos replicar realmente la función cerebral?
Este entusiasmo es comprensible. Nosotros, como humanos, estamos intentando imitar y replicar nuestras funciones cerebrales, para crear “artificialmente” lo que nos hace poseedores de la conciencia y autoconsciencia más refinadas de la naturaleza. Realmente nuestro objetivo, ¿es reconstruir digitalmente nuestras capacidades para pensar críticamente, amar, crear arte, hacer matemáticas, nutrir y defender a nuestra descendencia?
Creo que nosotros, especialmente los científicos de la computación y matemáticos, algún día crearemos tal tecnología. Sin embargo, y lo sabemos, en ese momento, nuestra creación podría tomar el control de su propio desarrollo, lo que podría llevar a resultados impredecibles.
Considera esto: “El cerebro humano es el sistema biológico más poderoso y complejo del universo entero, y sin embargo solo utiliza 20 watts para alimentar todas sus funciones,” señala Michio Kaku, renombrado físico teórico y profesor en el City College de Nueva York.
Sorprendentemente, 20 watts apenas son suficientes para encender un par de bombillas LED.
Al buscar simular cómo funciona nuestro cerebro, tomando en cuenta el consumo moderno de sistemas computacionales, he explorado cuánta energía sería necesaria para tal proeza, y los resultados son realmente asombrosos. Podríamos necesitar la producción dedicada de una presa de tamaño medio, o 8 hectáreas de paneles solares, o incluso una pequeña planta nuclear del tamaño de la plaza principal de la Ciudad de México, es decir una producción de energía en el ámbito de los mega watts.
SIGUE LEYENDO: Inteligencia Artificial: Navegando un Paradigma Diferente
Para los modelos de aprendizaje profundo, el consumo de energía depende en gran medida de la fase (entrenamiento vs. inferencia). Por ejemplo, entrenar un modelo grande como el GPT-4 de OpenAI, que no es exactamente una simulación cerebral, pero da una idea de las tareas de cálculo complejas, podría consumir acumulativamente decenas de mega watts-hora durante el período de entrenamiento. Para una operación continua o simulación, esto podría traducirse en varios kilowatts hasta decenas de miles de kilowatts dependiendo de la complejidad y la eficiencia del modelo y del hardware.
Combinando estos resultados, una estimación razonable para simular la funcionalidad completa del cerebro humano con la tecnología actual estaría en el rango de 1 a varios mega watts de energía. Este estimado considera la necesidad de procesamiento en tiempo real y las complejidades involucradas en los cálculos neuronales que estos proyectos, de imitar funciones cerebrales, intentan modelar. Esto está muy por encima de los 20 vatios utilizados por el cerebro biológico y destaca la disparidad en la eficiencia energética entre los cálculos biológicos y electrónicos.
El cerebro humano es una maravilla; puede que esta afirmación suene trillada, pero tal vez nuestro empeño en entender sus funciones refleje un intento profundo de mirarnos en el espejo y desentrañar la complejidad de nuestra propia conciencia. Esta odisea de explicar y posteriormente digitalizar lo que observamos frente a nosotros, empleando enormes cantidades de energía y esculpiendo perfección en nuestra creación, captura verdaderamente la esencia de este esfuerzo
Esta exploración podría llevarnos más allá de los reinos de la comprensión humana moderna, o podría potencialmente conducir a nuestro ocaso como especie.
Esto no es solo una posibilidad, es una cuestión de cuándo.
- Daniel Bisogno: nuevamente hospitalizado de emergencia
- IEEH valida arranque de producción de Documentación Electoral para Cuautepec
- Caen dos sujetos por ejecución de padre e hijo en Tizayuca