**El saber nos hará libres
para comprender y entender. (Las imágenes son meras recreaciones)
Los expertos enfatizan que
la tecnología de inteligencia artificial en sí no es ni buena ni mala en un
sentido moral, pero sus usos pueden conducir a resultados tanto positivos como
negativos.
Con la
creciente sofisticación y utilidad de las herramientas de inteligencia
artificial (IA), las personas y las industrias están ansiosas por
implementarlas para aumentar la eficiencia, ahorrar dinero e informar la toma
de decisiones humanas. Pero ¿están estas herramientas listas para el mundo
real? Como sabe cualquier aficionado al cómic: un gran poder conlleva una gran
responsabilidad. La proliferación de la IA plantea interrogantes sobre la confianza, los prejuicios, la
privacidad y la seguridad , y existen pocas respuestas
sencillas y definitivas.
Aunque la llamemos "INTELIGENTE", la IA
actual no puede pensar por sí misma. Hace exactamente lo que está programada
para hacer, lo que hace que las instrucciones que los ingenieros dan a un
sistema de IA sean sumamente importantes. "Si no se le dan buenas
instrucciones, el comportamiento aprendido de la IA puede tener efectos
secundarios o consecuencias imprevistas", afirma Yue.
Por
ejemplo, supongamos que desea entrenar un sistema
de IA para que reconozca aves. Le proporciona datos de
entrenamiento, pero el conjunto de datos solo incluye imágenes de aves
norteamericanas durante el día. En
realidad, ha creado un sistema de IA que reconoce imágenes de aves
norteamericanas durante el día, en lugar de todas las aves en todas las
condiciones de iluminación y clima. «Es muy difícil controlar qué patrones
detectará la IA», afirma Yue.
Las
instrucciones se vuelven aún más importantes cuando se utiliza IA para tomar
decisiones sobre la vida de las personas, como cuando los jueces toman
decisiones sobre libertad condicional basándose en un modelo de IA que
predice si es probable que alguien condenado por un delito cometa otro delito.
Las
instrucciones también se utilizan para programar valores como la equidad en los
modelos de IA. Por ejemplo, un modelo podría programarse para tener la misma
tasa de error en ambos sexos. Sin embargo, quienes lo construyen deben elegir
una definición de equidad; un sistema no puede diseñarse para ser justo en
todos los sentidos, ya que debe calibrarse para priorizar ciertas medidas de
equidad sobre otras para generar decisiones o predicciones.
¿Podría la IA volverse contra los humanos?
Cuando se piensa en los
peligros de la IA, a menudo se piensa en Skynet ,
la IA ficticia, consciente y destructora de la humanidad de las películas de
Terminator . En este escenario imaginario, un sistema de IA crece más
allá de la capacidad humana para controlarlo y desarrolla nuevas capacidades
que no estaban programadas inicialmente. El término "singularidad" se
utiliza a veces para describir esta situación.
Los expertos siguen
debatiendo cuándo es
probable que esto ocurra, si es probable o no, y el alcance de
los recursos que deberían destinarse a abordarlo. El profesor de la Universidad
de Oxford, Nick Bostrom, predice
notablemente que la IA se volverá superinteligente y superará a
la humanidad. Investigadores de IA y ciencias sociales de Caltech están menos
convencidos.
"La gente intentará
investigar el escenario incluso si la probabilidad es pequeña, porque el riesgo
es enorme", dice Abu-Mostafa. "Pero, objetivamente, conociendo las
señales que conozco, no lo veo como una amenaza".
Además de la diversidad de perspectivas académicas, la
investigación y el desarrollo de la IA requieren diversidad de identidades y
trayectorias para considerar las múltiples maneras en que la tecnología puede
impactar a la sociedad y a los individuos. Sin embargo, el campo se ha
mantenido en gran medida homogéneo .
"Contar
con equipos diversos es fundamental porque aportan diferentes perspectivas y
experiencias sobre el impacto que pueden tener", afirmó Anandkumar en el podcast Radical AI . "Para una sola
persona, es imposible visualizar todas las posibles maneras en que se puede
utilizar una tecnología como la IA. Solo cuando los equipos son diversos,
podemos tener soluciones creativas y conocer los problemas que puedan surgir
antes de implementar la IA".
Fuente:Caltech
Science Exchange/2025.
No hay comentarios:
Publicar un comentario