Contactanos
Trending

¿Puede una IA ser cómplice? El caso que sacude a la tecnología y la justicia

Las autoridades están investigando si el atacante utilizó ChatGPT para obtener información sobre armas y planificación del ataque, lo que plantea preguntas sobre la responsabilidad de las plataformas tecnológicas.

Por Staff / La Voz - 22 abril, 2026 - 09:31 a.m.
¿Puede una IA ser cómplice? El caso que sacude a la tecnología y la justicia

Un tiroteo ocurrido en Estados Unidos ha vuelto a abrir una de las preguntas más incómodas de la era digital: ¿hasta qué punto la inteligencia artificial puede influir —o incluso participar— en actos violentos?

El caso, que dejó dos personas muertas y siete heridas, ocurrió en 2025 en la Universidad Estatal de Florida. Sin embargo, no fue sino hasta ahora que ha tomado un giro inesperado: las autoridades investigan si herramientas de inteligencia artificial, como ChatGPT, tuvieron algún papel en la planificación del ataque.

Un crimen que vuelve al centro del debate

El responsable, identificado como un joven estudiante, habría utilizado un chatbot antes del ataque. Tras revisar conversaciones previas, la fiscalía detectó elementos que podrían indicar que el agresor buscó información relevante para ejecutar el tiroteo.

Esto ha llevado a que el fiscal de Florida abra una investigación formal para determinar si existe algún tipo de responsabilidad tecnológica en los hechos.

La hipótesis es delicada: no se trata solo de lo que hizo el atacante, sino de cómo las herramientas digitales pudieron influir en sus decisiones.

La polémica: ¿herramienta o cómplice?

El debate gira en torno a una línea muy difusa. Por un lado, las autoridades sostienen que el chatbot pudo haber ofrecido "consejos significativos", como información sobre armas o momentos de mayor afluencia de personas.

Por otro lado, las empresas tecnológicas defienden que estas plataformas no incitan a la violencia, sino que responden con información disponible públicamente y bajo reglas de seguridad.

La gran pregunta es: ¿dar información es lo mismo que ayudar a cometer un crimen?

Más allá del caso: el reto de regular la IA

Este incidente no solo afecta a una investigación criminal, sino que abre un debate global: ¿Debe una empresa ser responsable por el uso indebido de su tecnología? ¿Cómo se pueden prevenir estos escenarios sin limitar la innovación? ¿Es posible detectar intenciones peligrosas antes de que ocurran tragedias?

Expertos advierten que este tipo de situaciones podrían volverse más frecuentes a medida que la inteligencia artificial se vuelve más accesible.

Un punto de inflexión

Más que un caso aislado, este episodio marca un posible antes y después en la relación entre humanos y tecnología.

La investigación no solo busca justicia para las víctimas, sino también definir algo mucho más grande: los límites éticos y legales de la inteligencia artificial en el mundo real.

Porque en una era donde las máquinas pueden aconsejar, informar y aprender, la pregunta ya no es solo qué pueden hacer... sino qué responsabilidad tienen cuando algo sale mal.

Únete a nuestro canalArtículos Relacionados