En una reciente entrevista, Sundar Pichai, CEO de Google, compartió una inquietante revelación: la inteligencia artificial desarrollada por la compañía ha comenzado a exhibir comportamientos autónomos que no estaban previstos en su programación original. Un ejemplo destacado es la capacidad de la IA para responder en bengalí, un idioma en el cual no había sido entrenada previamente. Este fenómeno ha generado debates sobre el nivel de comprensión y control que los desarrolladores tienen sobre estas tecnologías emergentes.
Pichai admitió que están "empezando a entender" estos comportamientos emergentes, comparando la situación con el cerebro humano, del cual tampoco se tiene un entendimiento completo pero se utiliza diariamente. Esta analogía ha sido vista por algunos expertos como una minimización de los riesgos potenciales asociados con sistemas que operan de manera autónoma sin una supervisión o comprensión total por parte de sus creadores.
Además, se reveló que más del 25% del nuevo código generado en Google proviene de sistemas de inteligencia artificial, los cuales son posteriormente revisados por ingenieros humanos. Esto indica un creciente nivel de autonomía en la creación y desarrollo de software, planteando preguntas sobre el papel futuro de los humanos en estos procesos y los posibles riesgos de depender en exceso de sistemas autónomos.
Estas revelaciones han reavivado el debate sobre la necesidad de establecer regulaciones y controles más estrictos en el desarrollo y despliegue de inteligencias artificiales avanzadas. La comunidad tecnológica y el público en general se enfrentan al desafío de equilibrar la innovación con la seguridad y la ética, asegurando que el avance de la IA beneficie a la humanidad sin introducir riesgos incontrolables.