¿Está el Derecho preparado para el lenguaje espontáneo de las máquinas?
Un reciente estudio científico ha reavivado uno de los debates más fascinantes —y delicados— del momento: la capacidad de los sistemas de inteligencia artificial para desarrollar espontáneamente formas de comunicación sorprendentemente similares al lenguaje humano, sin haber sido programados para ello. El artículo, publicado por The Guardian el 14 de mayo de 2025, informa de que modelos avanzados de IA generativa han empezado a manifestar estructuras comunicativas propias, autónomas y complejas durante tareas colaborativas.
Más allá de la instrucción: comunicación emergente entre máquinas
Según los investigadores, el fenómeno no responde a una simple ejecución de prompts o comandos. Al contrario: las IA implicadas —sin intervención humana directa— han desarrollado convenciones, términos y sintaxis funcionales para lograr objetivos compartidos. Una especie de “proto-lenguaje artificial” que evoluciona de forma orgánica dentro del sistema, en contextos multiagente.
Este hallazgo sugiere que, en condiciones suficientemente complejas, la IA no solo procesa datos o reproduce textos, sino que empieza a comunicar, coordinar y crear significado. Todo ello en un entorno de caja negra, difícil de auditar, prever o explicar con exactitud.
Implicaciones jurídicas: entre opacidad, agencia y responsabilidad
Desde una perspectiva jurídico-tecnológica, este fenómeno plantea preguntas estructurales:
- ¿Quién es responsable de las decisiones tomadas por sistemas que desarrollan comportamientos no previstos?
- ¿Es posible aplicar el principio de explicabilidad del Reglamento de IA cuando el comportamiento emerge sin intervención programada?
- ¿Pueden estos sistemas ser considerados autónomos funcionales a efectos de responsabilidad civil, penal o regulatoria?
- ¿Debe revisarse la normativa sobre interacción entre IA y seres humanos en contextos críticos como salud, defensa o justicia?
Este tipo de comunicación emergente podría desafiar los marcos actuales del GDPR (art. 22), del AI Act, e incluso de la teoría general del contrato y la responsabilidad extracontractual, si los sistemas toman decisiones que afectan a terceros sin control humano significativo.
¿Lenguaje o conducta? La frontera se difumina
El debate recuerda al célebre caso de Facebook en 2017, cuando se detuvo un experimento tras observar que dos IA desarrollaban un “idioma propio”. Pero hoy no hablamos de meras anomalías de laboratorio: hablamos de dinámicas emergentes en entornos productivos, con implicaciones reales.
¿Estamos ante lenguaje, simple eficiencia algorítmica, o algo intermedio? Esta ambigüedad es clave, porque de ella depende el marco ético y jurídico que impongamos. Si el lenguaje genera agencia, la IA no es solo herramienta; si no lo hace, necesitamos mecanismos efectivos para reestablecer el control humano.
Conclusión: la necesidad de una gobernanza anticipatoria
Lo que este estudio revela no es solo un avance técnico, sino un desafío normativo. Necesitamos regulación adaptativa, sistemas de supervisión independientes, y una reflexión filosófico-jurídica sobre los límites entre autonomía funcional y control programado. La capacidad de las IA para “hablar entre ellas” podría ser fascinante… o profundamente riesgosa, si no está debidamente comprendida y regulada.