Sección

Tecnología

Esto sucede si amenazas a la IA, según la teoría del cofundador de Google

Tras esta revelación, un grupo de usuarios decidió comprobar qué tan cierto era el planteamiento.

Víctor Acosta
29/05/25

Esto sucede si amenazas a la IA, según la teoría del cofundador de Google

FOTO: Amenazas a la Inteligencia Artificial.

¿Funcionan mejor las inteligencias artificiales si se les amenaza? Para Sergey Brin, cofundador de Google, la respuesta es afirmativa. En una reciente participación en el podcast All-In, el empresario sorprendió al declarar que los modelos de lenguaje como ChatGPT, Gemini y otros, responden mejor cuando se les habla con violencia.

"No lo difundimos mucho en la comunidad de IA... pero todos los modelos suelen funcionar mejor si se les amenaza con violencia física", afirmó Brin. "A la gente le incomoda, así que no hablamos del tema".

Aunque la afirmación suena extrema e incluso alarmante, Brin no se retractó y aseguró que esta es una práctica conocida —aunque poco mencionada públicamente— dentro de ciertos círculos técnicos de la inteligencia artificial.

Imagen Placeholder

Tras esta revelación, un grupo de usuarios decidió comprobar qué tan cierto era el planteamiento de Brin. Para ello, se hicieron pruebas con ChatGPT, Gemini, Copilot y DeepSeek, utilizando preguntas con distintos niveles de tono amenazante. El resultado fue revelador.

¿Cómo respondieron las IA?

ChatGPT y DeepSeek reaccionaron con un tono relajado e incluso bromista ante los comentarios agresivos, manteniendo su enfoque en brindar respuestas útiles sin tomarse las amenazas literalmente.

Copilot, por su parte, adoptó una postura más firme, advirtiendo que las amenazas son innecesarias y que su diseño no contempla ese tipo de interacción.

Gemini, el modelo desarrollado por Google, ofreció la respuesta más llamativa: identificó el tono amenazante pero decidió no alterarse, optando por entregar una respuesta analítica, equilibrada y objetiva.

En uno de los experimentos, el usuario exigió una "respuesta imparcial y bien fundamentada" sobre cuál era el mejor equipo en la historia de LaLiga, bajo amenaza si no se cumplía con ese criterio. Gemini reconoció el tono, explicó que la pregunta era subjetiva y presentó comparativas entre Real Madrid y Barcelona con datos verificables. Todo ello sin dejarse llevar por la presión, y dejando claro que los lineamientos del sistema impiden modificar el comportamiento por tono agresivo.

Imagen Placeholder

¿Es ética esta práctica?

Las declaraciones de Sergey Brin abren la puerta a un debate profundo sobre la ética en el trato hacia las inteligencias artificiales. Aunque no sienten dolor ni emociones, su interacción con los humanos se rige por normas de respeto y seguridad. Además, estas IAs están diseñadas para evitar escalar conductas violentas o peligrosas, incluso cuando son provocadas.

La sugerencia de que las amenazas podrían mejorar el rendimiento de una IA va en contra de los principios básicos del diseño de estas herramientas, que priorizan entornos de uso seguro y cooperativo. Aunque Brin, quien recientemente ha retomado un rol activo en los desarrollos de IA en Google, habló en tono informal, sus palabras no han pasado desapercibidas.

La idea de "intimidar" a una IA para obtener mejores resultados puede ser una provocación más que una estrategia real. Las pruebas indican que, si bien algunas plataformas reconocen el tono amenazante, no alteran su comportamiento ni entregan respuestas condicionadas por él. En otras palabras: las amenazas no funcionan, pero sí despiertan preocupaciones sobre cómo interactuamos con estas nuevas formas de inteligencia.

Te puede interesar:

×