El reconocido historiador israelí Yuval Noah Harari se ha mostrado preocupado por la supervivencia humana frente a la irrupción de la inteligencia artificial (IA).
Para el autor de Sapiens, una crónica sobre la evolución de la humanidad, es temeraria la llegada de la primera tecnología que crea historias. El historiador ha lanzado estas afirmaciones en una entrevista concedida al diario británico The Telegraph.
El también filósofo ha justificado sus temores argumentando en un tuit que “hemos inventado algo que nos quita el poder”. Durante la charla con el citado medio inglés, Harari ha sentenciado que el sistema democrático es el más vulnerable ante la IA.
Sponsored“Esta tecnología es una amenaza significativa para las democracias, más que para los regímenes autoritarios. Esto se debe a que las democracias necesitan conversaciones públicas. Es la primera tecnología en la historia que puede tomar sus propias decisiones y también puede tomar decisiones sobre nosotros. Esto no es una predicción futura, ya está sucediendo”.
Días atrás, el pensador firmó una carta en la que ha solicitado, juntos a otros expertos, suspender modelos de investigación basados en IA (por ejemplo, el software de ChatGPT). Las expresiones del historiador van en línea con lo expuesto por el empresario Elon Musk en cuanto a los riesgos que supone la IA para la civilización.

Harari detalló los riesgos de la IA
El historiador israelí Yuval Noah Harari ha puntualizado lo que a su juicio implica un avance peligroso de la IA en diversos campos de la vida cotidiana de las personas. A su entender, la nueva herramienta tecnológica no solo difunde el contenido que producen los humanos, sino que puede producirlo ella misma.
“Imagina vivir en un mundo donde la mayoría de los textos, melodías, series de televisión e imágenes son creados por una inteligencia no humana. Es difícil entenderlo. La semana pasada, una revista alemana publicó lo que parecía ser una entrevista exclusiva con Michael Schumacher, pero en realidad, el texto fue generado por una IA que imitaba al expiloto de carreras paralítico. Por esto, fue criticada.”.
Otro ejemplo que ha utilizado el autor involucra al campo laboral. Harari prevé que muchos trabajadores perderán sus empleos. Pero no lo relega a sus puestos temporales, sino que advierte un riesgo mayor: no contar con las habilidades básicas que requiera el futuro mercado laboral.
“Podríamos llegar a un punto donde el sistema económico considere a millones de personas como inútiles. Esto tendría terribles consecuencias psicológicas y políticas”.
Qué propone el historiador israelí para contener la IA
El autor no ha vacilado en cuanto a lo que entiende es un principio de solución para frenar el peligroso avance de la IA. Harari ha pedido por un marco regulatorio, del mismo modo que se aplica para la industria de los medicamentos.
“Las empresas farmacéuticas tienen que cumplir con un largo proceso regulatorio antes de lanzar un nuevo medicamento al mercado. Es extraño y alarmante que las empresas puedan lanzar herramientas de inteligencia artificial muy poderosas al público sin ningún tipo de seguridad similar”.
En el tramo final de la entrevista, el filósofo argumentó la necesidad de una regulación. Remarcó que “Elon Musk y Zuckerberg, o los otros jefes de las grandes empresas tecnológicas, no son elegidos por nadie. No representan a nadie, excepto a sus accionistas, y no hay razón para confiar en ellos“.