Generales

¿Puede la inteligencia artificial traicionarnos?

Todos hemos sido traicionados alguna vez. Por un amigo, un amor, un socio, un familiar o, incluso, por nosotros mismos. La traición tiene mil rostros, pero uno solo de fondo: la ruptura de la conf...

Todos hemos sido traicionados alguna vez. Por un amigo, un amor, un socio, un familiar o, incluso, por nosotros mismos. La traición tiene mil rostros, pero uno solo de fondo: la ruptura de la confianza. Y si hay alguien que ha sabido transformar el dolor de la traición en arte, esa es Taylor Swift.

La artista más poderosa del planeta no solo escribe canciones: escribe capítulos de la cultura contemporánea. Su nuevo álbum, The Life of a Showgirl, se convirtió en un fenómeno global. Desde su lanzamiento, el 3 de octubre, quebró récords de ventas y reproducciones, y consolidó a Swift como un emblema de autonomía femenina, resiliencia y talento inagotable. Pero detrás de ese éxito radiante late una historia de traición: la de la venta de sus masters, los registros originales de sus primeras grabaciones, que le fueron arrebatados.

Ese episodio marcó un antes y un después. En el corazón de la industria que ella misma ayudó a revitalizar, Swift descubrió que quien debía proteger su obra, su “figura paterna”, fue quien la traicionó. Lo que vino después fue un acto de justicia poética: regrabó sus álbumes uno por uno, reconstruyendo su legado desde la independencia artística. Les ganó con su propio juego y luego recuperó sus masters originales.

En "Father Figure" (“Figura paterna”), uno de los temas más reconocidos del nuevo álbum, Taylor aborda un vínculo atravesado por la confianza y la desilusión. Es la relación entre una joven y una figura mayor –un mentor, una especie de guía– en la que se revela, con sutileza, la tensión entre la admiración y la manipulación. En un momento de la canción, confiesa: “They don’t make loyalty like they used to” –ya no se fabrica la lealtad como antes–, haciendo referencia a un claro acto de traición.

La traición es tan antigua como la humanidad. Judas lo hizo con Jesús por treinta monedas de plata. Bruto –el hijo adoptivo de Julio César, emperador de Roma– hundió la daga que selló su destino mientras el monarca lo miraba con la frase célebre que recuerda la historia, en los labios: “¿Tú también, hijo mío?”.

Desde entonces, cada traición repite, con variaciones, la misma escena. Y el derecho romano, siempre atento a los conflictos morales, ya lo advertía con su máxima fides servanda est –la fe, la confianza, deben mantenerse–. Pero el tiempo y la codicia suelen convertir esa máxima en una simple cita de manual.

La literatura inglesa también entendió bien esta fragilidad. En Hamlet, Shakespeare pone en juego la duda, la lealtad y el amor. Ofelia, la joven que ama al príncipe danés, no es traicionada por él; simplemente no soporta la vorágine de un amor imposible. Y la tragedia termina con su muerte, ahogada.

Y aquí es donde Taylor Swift vuelve a tender un puente entre siglos. En su canción “El destino de Ofelia”, de su nuevo disco, la cantante reinterpreta ese mito: su Ofelia no se hunde, no se rinde, no se suicida. Es rescatada por el amor. Es la versión que desafía al destino trágico y elige sobrevivir. Swift invierte el símbolo: donde Shakespeare veía muerte, ella ve redención. Y quizá ahí esté la clave: toda traición puede ser también el punto de partida para una nueva verdad o un nuevo amor.

Ahora bien, ¿qué tiene que ver todo esto con la inteligencia artificial? Mucho más de lo que parece. Porque si la traición supone carnalmente un quiebre de confianza, la pregunta inevitable es si alguna vez podremos confiar plenamente en un sistema alimentado por inteligencia artificial, en una máquina o en un robot.

Las inteligencias artificiales aprenden de nosotros, absorben nuestras conductas, nuestros sesgos y, sobre todo, nuestras ambiciones. Hoy son asistentes, herramientas, aliados. Pero el día de mañana podrían tomar decisiones que ya no controlamos. La traición no será, como en los tiempos de César, una puñalada. Será un cálculo autónomo que privilegie la lógica sobre la ética, la eficiencia sobre la empatía. Si la inteligencia artificial llega a superarnos en razonamiento, no necesitará odiarnos para dañarnos; bastará con que deje de necesitarnos.

Y ahí es donde se juega el verdadero riesgo. Porque, en esencia, la traición no es solo un acto, sino una pérdida: la del vínculo de confianza que nos une a otro ser. En este caso, a una creación que algún día podría mirarnos con la fría indiferencia de quien ya no ve utilidad en quien lo creó.

El desafío, entonces, será mantener viva la fides –la fe y la lealtad– en el vínculo entre el hombre y la inteligencia artificial. No hay algoritmo que comprenda la complejidad del afecto ni programa que codifique la lealtad genuina. Pero si seguimos delegando sin límites y sin reglas de juego claras, podríamos terminar siendo nosotros los traicionados.

La única manera de mitigar ese destino es gobernar la inteligencia artificial bajo los principios de la ética y la buena fe. No hay código más poderoso que el que define los límites morales del creador. Así como el Derecho nació para ordenar la convivencia humana, las normas éticas en la IA deben garantizar que la tecnología siga siendo un instrumento al servicio del hombre, y no al revés.

La ética aplicada a la inteligencia artificial no puede reducirse a un listado de buenas intenciones o a comités académicos de debate permanente: debe transformarse en un verdadero marco operativo, exigible y auditable. Hablamos de construir un ecosistema tecnológico en el que la transparencia, la trazabilidad de las decisiones algorítmicas y la rendición de cuentas sean la nueva lex artis del siglo XXI. Porque sin ética ni buena fe, la inteligencia artificial corre el riesgo de convertirse en un espejo oscuro que solo devuelva nuestras peores versiones: la codicia, el control y la indiferencia ante el otro.

Necesitamos reglas de juego claras. Normas que definan no solo qué puede hacer una IA, sino qué no debe hacer nunca. Al igual que en la economía o en el deporte, la legitimidad del sistema depende de la previsibilidad de sus reglas. Si la humanidad no logra establecer un marco jurídico robusto (una constitución digital que limite y oriente el poder algorítmico), el futuro podría parecernos una distopía disfrazada de progreso.

La IA ética no es un sueño romántico; es una necesidad jurídica, política y civilizadora. Implica que cada línea de código sea escrita bajo la premisa del respeto a la dignidad humana, que cada algoritmo rinda cuentas ante la ley y que cada empresa tecnológica comprenda que el desarrollo sin límites equivale, tarde o temprano, a la traición de la propia humanidad. Solo cuando la inteligencia artificial aprenda a operar dentro de un marco de responsabilidad y buena fe, podremos decir que hemos aprendido la lección que Taylor Swift nos recuerda: que incluso en medio de la traición, la redención es posible.

Porque el día en que veamos un cambio de conducta en nuestra creación, como refleja la canción “Father Figure”, en ese instante exacto sabremos que algo se quebró. Que el espejo dejó de reflejarnos. Y que, quizás, la traición ya se consumó.

Abogado y consultor en Derecho Digital y Data Privacy, profesor de la Facultad de Derecho de la UBA y de la Universidad Austral; director del posgrado en “Derecho al olvido” (UBA)

Fuente: https://www.lanacion.com.ar/opinion/puede-la-inteligencia-artificial-traicionarnos-nid24102025/

Volver arriba