SOCIEDAD Y CULTURA

Revista El Magazín de Merlo, Buenos Aires, Argentina.



domingo, 5 de octubre de 2025

¿QUE TAN CONFIABLE es la INTELIGENCIA ARTIFICIAL? ¿Están estas herramientas listas para el mundo real? ¿Aun todo depende de la mente humana?

 

**El saber nos hará libres para comprender y entender. (Las imágenes son meras recreaciones)

Los expertos enfatizan que la tecnología de inteligencia artificial en sí no es ni buena ni mala en un sentido moral, pero sus usos pueden conducir a resultados tanto positivos como negativos.



Con la creciente sofisticación y utilidad de las herramientas de inteligencia artificial (IA), las personas y las industrias están ansiosas por implementarlas para aumentar la eficiencia, ahorrar dinero e informar la toma de decisiones humanas. Pero ¿están estas herramientas listas para el mundo real? Como sabe cualquier aficionado al cómic: un gran poder conlleva una gran responsabilidad. La proliferación de la IA plantea interrogantes sobre la confianza, los prejuicios, la privacidad y la seguridad , y existen pocas respuestas sencillas y definitivas.



Aunque la llamemos "INTELIGENTE", la IA actual no puede pensar por sí misma. Hace exactamente lo que está programada para hacer, lo que hace que las instrucciones que los ingenieros dan a un sistema de IA sean sumamente importantes. "Si no se le dan buenas instrucciones, el comportamiento aprendido de la IA puede tener efectos secundarios o consecuencias imprevistas", afirma Yue.

Por ejemplo, supongamos que desea entrenar un sistema de IA para que reconozca aves. Le proporciona datos de entrenamiento, pero el conjunto de datos solo incluye imágenes de aves norteamericanas durante el día. En realidad, ha creado un sistema de IA que reconoce imágenes de aves norteamericanas durante el día, en lugar de todas las aves en todas las condiciones de iluminación y clima. «Es muy difícil controlar qué patrones detectará la IA», afirma Yue.

Las instrucciones se vuelven aún más importantes cuando se utiliza IA para tomar decisiones sobre la vida de las personas, como cuando los jueces toman decisiones sobre libertad condicional basándose en un modelo de IA que predice si es probable que alguien condenado por un delito cometa otro delito.



Las instrucciones también se utilizan para programar valores como la equidad en los modelos de IA. Por ejemplo, un modelo podría programarse para tener la misma tasa de error en ambos sexos. Sin embargo, quienes lo construyen deben elegir una definición de equidad; un sistema no puede diseñarse para ser justo en todos los sentidos, ya que debe calibrarse para priorizar ciertas medidas de equidad sobre otras para generar decisiones o predicciones.

¿Podría la IA volverse contra los humanos?

Cuando se piensa en los peligros de la IA, a menudo se piensa en Skynet , la IA ficticia, consciente y destructora de la humanidad de las películas de Terminator . En este escenario imaginario, un sistema de IA crece más allá de la capacidad humana para controlarlo y desarrolla nuevas capacidades que no estaban programadas inicialmente. El término "singularidad" se utiliza a veces para describir esta situación.

Los expertos siguen debatiendo cuándo es probable que esto ocurra, si es probable o no, y el alcance de los recursos que deberían destinarse a abordarlo. El profesor de la Universidad de Oxford, Nick Bostrom, predice notablemente que la IA se volverá superinteligente y superará a la humanidad. Investigadores de IA y ciencias sociales de Caltech están menos convencidos.

"La gente intentará investigar el escenario incluso si la probabilidad es pequeña, porque el riesgo es enorme", dice Abu-Mostafa. "Pero, objetivamente, conociendo las señales que conozco, no lo veo como una amenaza".

Además de la diversidad de perspectivas académicas, la investigación y el desarrollo de la IA requieren diversidad de identidades y trayectorias para considerar las múltiples maneras en que la tecnología puede impactar a la sociedad y a los individuos. Sin embargo, el campo se ha mantenido en gran medida homogéneo .

"Contar con equipos diversos es fundamental porque aportan diferentes perspectivas y experiencias sobre el impacto que pueden tener", afirmó Anandkumar en el podcast Radical AI . "Para una sola persona, es imposible visualizar todas las posibles maneras en que se puede utilizar una tecnología como la IA. Solo cuando los equipos son diversos, podemos tener soluciones creativas y conocer los problemas que puedan surgir antes de implementar la IA".

Fuente:Caltech Science Exchange/2025.

 

 

No hay comentarios:

Publicar un comentario