La
innovación se ha acelerado rápidamente desde que nos convertimos en una
sociedad digitalizada y algunas de las novedades que ha traído consigo han
cambiado en esencia el modo en que vivimos: Internet, los smartphones, las
redes sociales o el cloud computing.
Como
hemos visto en los últimos meses, estamos en la cresta de una nueva ola en el
panorama tecnológico que cambiará todo: la IA. Como Brad
Smith señaló recientemente, la Inteligencia Artificial y el machine
learning ya han alcanzado un nivel de desarrollo que se
esperaba para dentro de diez años, proporcionando una capacidad revolucionaria
para profundizar en conjuntos de datos enormes y encontrar respuestas donde
antes sólo teníamos preguntas.
Lo
vimos hace unas semanas con la importante integración
de IA en Bing y Edge. Esta innovación demuestra la capacidad no sólo
de “razonar” con agilidad en base a un inmenso conjunto de datos, sino también
de proporcionar a la gente la posibilidad de tomar decisiones de una manera
nueva y diferente, que podría tener un impacto enorme sobre sus vidas. Imagina
el alcance que este tipo de escala y potencia podría tener en la protección de
los clientes frente a las ciberamenazas.
Mientras
vemos cómo se acelera rápidamente el progreso que permite la IA, Microsoft
tiene el compromiso de invertir en herramientas e investigación, así como de
cooperar con la industria para crear una IA segura, sostenible y responsable
para todos. Nuestro
acercamiento da la máxima prioridad a escuchar, aprender y
mejorar.
Parafraseando
a Stan Lee, creador de Spiderman, un enorme potencial informático conlleva una
enorme responsabilidad para aquellos que están desarrollando y proporcionando
seguridad a nuevas soluciones de IA y machine learning. La
seguridad es un terreno que experimentará en profundidad el impacto de la IA.
La IA responsable debe ser liderada en primer lugar por los
seres humanos:
Hay
numerosas visiones distópicas advirtiéndonos de en qué se podría convertir una
IA mal utilizada o descontrolada. Como comunidad global, ¿cómo nos aseguramos
de que el potencial de la IA se utiliza para el bien y no para el mal, y de que
la gente puede confiar en que la IA esté haciendo lo que se supone que debe?
Parte
de esa responsabilidad recae en los políticos, los gobernantes y los poderes
globales. Y otra parte recae en la industria de la seguridad, que ayuda a
construir la protección que impida a los malhechores utilizar la IA como
herramienta para el ataque.
Ningún
sistema de IA puede ser efectivo a menos que se base en el conjunto de datos
adecuado, continuamente afinado y sujeto a los comentarios y las mejoras de los
operadores humanos. Por más que la IA pueda ayudar en la lucha, los humanos
somos responsables de su rendimiento, ética y crecimiento. Las disciplinas de
ciencia de datos y ciberseguridad tienen mucho que aprender una de otra (e
incluso de cualquier campo del conocimiento y la experiencia humanos) cuando
exploramos la IA responsable.
Debemos trabajar juntos para ganar a los malos:
Hacer
del mundo un lugar más seguro no es algo que un grupo o compañía pueda hacer
solo. Para lograr este objetivo, debemos trabajar juntos, tanto industrias como
gobiernos.
Cada
vez que compartimos nuestras experiencias, conocimiento e innovaciones, hacemos
a los malos más débiles. Por eso es tan importante que trabajemos hacia un
futuro más transparente en ciberseguridad. Es crítico construir una comunidad
de seguridad que crea en la apertura, la transparencia y el aprendizaje mutuo.
Creo
que, de lejos, la tecnología está de nuestro lado. Aunque siempre habrá actores
perniciosos que tengan malas intenciones, el grueso de los datos y la actividad
que entrena los modelos de IA es positivo y por tanto la IA será positiva.
Microsoft
cree en un acercamiento proactivo a la seguridad, incluyendo inversiones,
innovación y colaboraciones. Trabajando juntos, podemos ayudar a construir un
mundo digital más seguro y explotar el potencial de la IA.
FUENTE: Charlie
Bell, Executive Vice President, Security, Compliance,
Identity, and Management de Microsoft.
No hay comentarios:
Publicar un comentario