¿La Inteligencia Artificial tiene riesgos? Entienda mejor sobre este tema

Tiempo de lectura: 4 minutos

A medida que la Inteligencia Artificial avanza, se detectan nuevos riesgos. Entienda cuáles son los motivos que preocupan sobre esta tecnología. 

 

¿La Inteligencia Artificial tiene riesgos? Entienda mejor sobre este tema

 

Crear códigos, artículos, imágenes, obras de arte, videos y tantos otros materiales con solamente un comando nunca había sido tan fácil. La Inteligencia Artificial (Artificial Intelligence) viene avanzando rápidamente en los últimos meses y asumió el protagonismo en el mercado, dejando en segundo plano a tendencias que estaban en ascenso, como el metaverso. Sin embargo, a medida que avanza, se detectan nuevos riesgos y amenazas.  

 

A finales de 2022, ChatGPT sacudió el mercado mundial de IA, poniendo a disposición una interfaz creativa y colaborativa para comunicarse con los usuarios. Al mes siguiente, la herramienta ya había sobrepasado la marca de 100 millones de personas activas.  

 

Recibiendo miles de accesos en todo el mundo, en marzo de 2023, OpenAI, creadora de ese modelo de IA generativa, anunció una nueva versión, GPT-4, una alternativa optimizada y capaz de solucionar problemas difíciles con mayor precisión.  

 

Aunque esta tecnología sea reconocida como una gran facilitadora, capaz de crear nuevas oportunidades de negocios y transformar el modo como navegamos en Internet, su avance desenfrenado ha provocado una serie de preocupaciones.  

 

En Italia, por ejemplo, la justicia bloqueó el chatbotGPT por no cumplir con las exigencias de las Reglamento General de Protección de Datos (RGPD). 

En relación con esto, profesores y grandes nombres relacionados con la tecnología, como Ellon Musk (CEO de SpaceX, Tesla y Twitter) y Steve Wozniak (Cofundador de Apple), hacen un llamado a que “todos los laboratorios de IA detengan inmediatamente por lo menos por 6 meses el entrenamiento de sistemas de IA más poderosos que el GPT-4”. 

 

En una carta publicada en Internet, los profesionales afirman que “los sistemas de inteligencia artificial potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”. 

 

El mismo CEO de OpenAI, Sam Altman, declaró en entrevista para ABC News que la tecnología de IA redefinirá la sociedad como la conocemos, sin embargo, entiende que esta viene con peligros reales.  

 

Pero, después de todo, ¿cuáles son los riesgos que temen los expertos? Descubra más a continuación: 

 

4 riesgos asociados al avance de la IA 

Hay algunos puntos que se deben evaluar como: 

  1. Propagación de desinformación a gran escala

Una de las principales preocupaciones se trata de la cantidad de información falsa y de discursos prejuiciosos y estereotipados que las herramientas de IA pueden enviarles a los usuarios. 

 

chatGPT, por ejemplo, es una interfaz entrenada por textos publicados en la web hasta finales de 2021. Esto significa que la aplicación busca información en un banco de datos desactualizado, encontrando datos obsoletos para responder las preguntas de los usuarios. Además, tampoco tiene un filtro capaz de identificar respuestas verdaderas o falsas. 

 

Con la enorme cantidad de desinformación y noticias falsas que hay en Internet, la herramienta no es lo suficientemente inteligente para detectar cuando una información es falsa.  

 

Además, el modelo también aprende patrones con la información que recibe de los usuarios, las cuales no siempre son verdaderas.  

 

Aún durante la entrevista, Sam Altman también expresó su preocupación sobre este asunto: “Me preocupa especialmente que estos modelos puedan utilizarse para la desinformación a gran escala” e incentiva a que las personas no confíen en el sistema como fuente primaria de información precisa y verifiquen la veracidad de los resultados en otros medios.  

  1. Riesgos a la seguridad pública y la privacidad de datos

Otro punto de alerta está relacionado con la seguridad pública y la privacidad de datos.  

 

En un comunicado de prensa, Garante para la Protección de Datos Personales de Italia (GPDP) afirma que el bloqueo del chatGPT en el país se dio debido a la “recolección ilegal de datos personales y ausencia de sistemas de verificación de la edad de los menores”. 

 

Aunque sea una restricción temporal, la autoridad italiana constata la falta de seguridad y responsabilidad con los datos de los usuarios y alega que, en marzo de este año, el software de IA sufrió una violación de datos que permitió que se mostraran a otros usuarios conversaciones con la herramienta, exponiendo la información.  

 

En el comunicado, la organización también destaca la ausencia de fundamento legal que justifique la recolección y el almacenamiento en masa de datos personales, además de resaltar la ausencia de cualquier filtro destinado a menores de 13 años, exponiendo a los menores a respuestas inapropiadas.

 

  1. Reemplazo de puestos de trabajo

Los avances de la IA trajeron a colación el siguiente debate: ¿esta tecnología y las funcionalidades relacionadas a esta están preparadas para reemplazar puestos de trabajo 

 

Aunque ese asunto sea una pauta desde hace años, los últimos meses encendieron una nueva alerta, principalmente cuando instituciones y periódicos nombrando profesiones que dicen tener los días contados. 

 

Altman indicó, durante su conversación con ABC News, que las herramientas de IA probablemente van a reemplazar algunos empleos en un futuro cercano. Sin embargo, teme la rapidez con la que esto puede suceder, al mismo tiempo que cree que los avances traerán nuevas profesiones que no existen actualmente.   

  1. Ataques cibernéticos cada vez más perfeccionados

Los expertos creen que el número de ataques virtuales debe aumentar conforme las herramientas de IA se difunden en el mercado.   

 

El uso indebido de estos softwares impulsará amenazas de phishing gracias a la habilidad de redactar textos más humanizados, mejorando ataques y dejándolos con un aspecto más confiable para que hagan clic en él.  

 

Los hackers también pueden aprovechar la IA para crear y mejorar códigos maliciosos. Incluso los delincuentes con poco conocimiento logran manejar estos softwares para elaborar acciones maliciosas de diferentes niveles.  

 

Como puede ver, la inteligencia artificial dejó de ser una tecnología futurista y ahora está en todo lugar, haciendo parte de nuestra rutina, en el trabajo y en muchas otras actividades.  

 

Aunque sea capaz de crear nuevas oportunidades, automatizar tareas y transformar la manera como las personas navegan en Internet, su avance acelerado ha causado mucha preocupación.  

 

La tendencia es que estos y otros riesgos estén cada vez más presentes en nuestra realidad, en caso de que la tecnología no establezca normas y otras directrices que ayuden a combatirlos. 

 

¿Qué opina usted sobre este asunto? ¿Cree que la IA debe reducir sus avances y estudios para minimizar amenazas como esas? Deje su comentario abajo. 

Contenidos relacionados