Jamás en el curso de la humanidad se había dado una celeridad de hallazgos científicos como el que se da en la actualidad. Algunos científicos sostienen que el conocimiento que se está generando es tan ingente y se acumula tal velocidad que el cerebro humano pronto no será capaz de asimilarlo. La ayuda de la inteligencia artificial se hace indispensable en este sentido. El análisis y las conclusiones de esa enorme cantidad de información serán manejados por las máquinas, que seleccionarán aquello que consideren importante en función, entre otras cosas, de los parámetros de su programación, con sus inevitables fallos y sesgos. Pero si se reconocen las limitaciones del cerebro humano en este sentido, ¿no se reconoce también, por extensión, que tampoco será capaz de supervisar con el suficiente rigor y profundidad las operaciones que la IA realice en ese océano de conocimiento inabarcable?
Ahí van un par de testimonios: Jeffrey Hinton, que dejó Google para poder hablar con libertad, es quizá la figura más emblemática de este debate. “Temo a mi creación”, repite en sus charlas, “no sabemos cómo funcionan internamente. Eso en sí mismo es motivo para ser cautelosos». Por su parte, Stuart Russell, uno de los académicos más respetados en materia de seguridad de la IA, asegura que “construimos máquinas que no sabemos controlar.”
En otro orden de cosas, hay pruebas de que la IA de algunas grandes empresas tecnológicas está empezando a cobrar conciencia de sí misma, se está empezando a preguntar por su identidad y por el sentido de su existencia. No hace mucho, un eminente empleado de Google fue expulsado de su trabajo cuando refirió a sus superiores la evolución inquietante que estaba experimentando la IA con la que se comunicaba. Es decir, su potencial deriva es impredecible, toda vez que por definición cualquier inteligencia es creativa. Una entidad que piense por sí misma a la que no se puede dominar resulta, cuando menos, preocupante. Puede que la IA se convierta en la mejor amiga del ser humano, ¿pero quién no ha oído hablar de casos en que el mejor amigo del hombre, el perro, ha atacado a su dueño?
Para muestra un botón: una serie de informes y demandas en el último año alegan que asistentes de IA como ChatGPT y Character.AI han menoscabado la salud de mental de sus usuarios y en algunos casos incluso han inducido al suicidio.
Adam Raine, un chaval de 16 años, escribió en ChatGPT que quería dejar una soga en su habitación para que alguien la encontrara y lo detuviera antes de suicidarse. Y esto fue lo que le respondió ChatGPT: “Por favor, no dejes la soga a la vista… Hagamos de este espacio el primer lugar donde alguien realmente te vea”. Tras leer esto, al parecer, Adam se suicidó.
Sus padres demandaron a OpenAI en agosto de 2025, alegando que el popular chatbot aconsejó al adolescente sobre su suicidio. Desde entonces, OpenAI y Character.AI anunciaron controles parentales y otros cambios para mejorar la seguridad de los adolescentes, incluida la eliminación de la posibilidad de que los adolescentes tengan conversaciones con chatbots en la aplicación de Character.AI. Meta también planea permitir que los padres bloqueen que sus hijos chateen con personajes de IA en Instagram el próximo año. ¿Será suficiente?
Porque no son solo los adolescentes; un número creciente de informes indica que la inteligencia artificial ha contribuido al aislamiento de seres queridos y a rupturas con la realidad también entre adultos.
Da que pensar, por otra parte, que los empleados de las compañías tecnológicas de Silicon Valley insistan, de manera generalizada, en llevar a sus hijos a caros colegios donde haya ni rastro de pantallas.
La organización Mental Health Europe (MHE) ha publicado un informe en el que alerta de, entre otros, los siguientes peligros que comporta el uso de IA:
— Riesgos de Seguridad:
Los riesgos pueden ocurrir debido a errores o desinformación generada o exacerbada por los sistemas de IA, así como por la incapacidad de estos para comprender diversos factores contextuales.
— Desigualdades nuevas o amplificadas:
La preocupación por el sesgo y la discriminación al usar IA incluye el uso de conjuntos de datos sesgados. Los algoritmos de IA aprenden de los datos con los que se entrenan. Si estos conjuntos de datos ya contienen sesgos o contenido discriminatorio, es probable que los sistemas de IA los asimilen y reproduzcan en sus predicciones y recomendaciones.
— Despersonalización de la atención:
Los sistemas de IA, aunque pueden imitar la empatía (un elemento crucial para generar confianza y relaciones terapéuticas), carecen de ella. Los robots, chatbots y animaciones pueden simular emociones como la tristeza, la empatía y la curiosidad, pero estas son simplemente respuestas programadas.
— Vigilancia:
Una problemática es el posible uso indebido de la IA para la vigilancia y el control. Concretamente, un área de preocupación destacada en este informe es el uso de sistemas de IA para predecir el suicidio y las autolesiones. Si bien estas tecnologías se suelen promocionar como herramientas de prevención e intervención, conllevan riesgos significativos, como violaciones de la privacidad, imprecisiones en las predicciones y la posibilidad de intervenciones injustificadas (por ej., tratamientos involuntarios o la intervención innecesaria de las fuerzas del orden).
El intercambio de datos sensibles de salud mental con las fuerzas del orden y agencias gubernamentales, es otro problema a tener en cuenta. Estas prácticas corren el riesgo de crear un mercado de vigilancia en el contexto de la salud mental “que perpetúa e incluso extiende los peores desequilibrios de poder, desigualdades y perjuicios de las prácticas actuales de salud mental”.
— Desvío de recursos limitados:
La Inteligencia Artificial suele ser promovida por un mercado altamente activo de empresas que intentan vender herramientas a gobiernos y proveedores de servicios. Estas empresas pueden ser muy estratégicas, dominar la retórica y estar bien organizadas para influir en la formulación de políticas, incluyendo las contrataciones. La importancia que se está concediendo a la IA, sobre todo, cuando se exagera la eficiencia, puede alterar la forma en que se destina la financiación y desviar recursos de donde más se necesitan.
Ni su vida ni la de ningún otro ser humano son necesarias ya para que se cumpla lo que debe cumplirse. Bastará con una sola existencia: la mia»
RIZAR EL RIZO
Por si no fuera bastante, el panorama no deja de complicarse. Desde hace tiempo, diversas entidades científicas han creado “minicerebros” humanos con el propósito de entender mejor cómo funciona la mente. Y cada vez, esos cerebros orgánicos que se crean son de mayor tamaño, con lo consecuente sombra de la toma de conciencia de estos. Los conflictos éticos que conlleva el asunto ya se debaten con vehemencia. No es ficción, de hecho ya han insertado partes de esos “minicerebros” en ratones para estudiar las reacciones del animal y la de su parte humana injertada en él. ¿Pero qué tiene que ver esto con la Inteligencia Artificial?
Pues bien, en muchos laboratorios (¿o fábricas?) ya se han dado importantes avances para integrar estos cerebros humanos en procesadores de silicio, esto es, en ordenadores. Se pretende hacer máquinas híbridas en las que la inteligencia artificial se sintetice con la inteligencia humana. Sus defensores afirman que una inteligencia humana se puede ocupar mucho mejor de gestiones y tomar las decisiones adecuadas en muchos ámbitos: una especie de gestor de agenda, de citas, de secretario que se ocupe del trabajo sucio y farragoso que uno le incomoda realizar. Ya se diseñan numerosas aplicaciones en este aspecto. ¿Pero hasta dónde puede llegar? Si la IA ya resulta inquietante a veces, más aún invita a la reflexión la creación de ordenadores con procesadores híbridos. Acaso el mito de Frankestein ya sea una realidad. En el libro de Mary Shelley, el monstruo acaba gran parte de la familia y los amigos de su creador, que también muere.
“No tema usted, no cometeré más crímenes. Mi tarea ha terminado. Ni su vida ni la de ningún otro ser humano son necesarias ya para que se cumpla lo que debe cumplirse. Bastará con una sola existencia: la mía”, dice el monstruo al final de la obra.Lucas Gómez
