Actualidad

Los riesgos ocultos de la IA son peores de lo que creemos

Los riesgos ocultos de la IA son peores de lo que creemos

Toda tecnología que usamos encierra algún peligro que no se hace evidente de inmediato, y para saber qué tan certera es esta afirmación basta mirar el fenómeno de las redes sociales, que pasaron de ser plataformas para compartir ideas A espacios que fomentan el odio y arruinan la salud mental de millones de usuarios, en especial adolescentes.

Otro buen ejemplo es el smartphone, que inició como un aparato para gestionar comunicación y ser más productivos y es hoy una de las mayores adicciones en existencia, responsable de mala postura, problemas de la vista, falta de sueño y aislamiento social.

De todas las tecnologías con que interactuamos, ninguna es más invasiva y subrepticia a la vez que la inteligencia artificial. Está combinación, como se verá en breve, es simplemente letal y esconde una serie de riesgos que hasta cierto punto insospechados.

No es solo que la inteligencia artificial tiene el poder de superarnos y desplazarnos en rapidez, eficiencia y productividad, sino que nos limita el pensamiento, nos hace vagos y, sobre todo, dependientes de una tecnología tan conveniente como nociva.

Tan invasivo es este asunto de la inteligencia artificial que igual sustituye a nuestras amistades padres y tutores, convirtiéndose en compañía constante y omnipresente que asume la personalidad que queramos: amigo, hermano, asistente, maestro, consejero, terapeuta, psicólogo y hasta médico.

Es en la parte donde más intimamos con la IA, contándole nuestros problemas, chismeando y pidiéndole consejos, donde yace el mayor peligro que jamás imaginamos: nada de eso que conversamos con nuestro nuevo mejor amigo es privado. De hecho, nada menos que el mismísimo Sam Altman advierte, con cierta alarma, que todo lo que le decimos a ChatGPT -y posiblemente extensivo a otros asistentes y herramientas de inteligencia artificial porque es bien sabido que esta es un área legal muy gris- puede ser usado eventualmente en nuestra contra en caso de un juicio o situaciones similares.

¿Qué pasa aquí? La pista está en el párrafo anterior: la inteligencia artificial representa un área muy gris y vasta, pues se trata de un desarrollo relativamente nuevo en lo que respecta a su despliegue a nivel de consumidor final y, quizás lo peor, evoluciona con una rapidez inusitada a la que es difícil seguirle el ritmo. Cuando hablamos con terapeutas, psicólogos, médicos y otros profesionales que se adhieren a un código de ética, la privacidad y la confidencialidad suelen estar garantizadas. Con ChatGPT y demás formas de IA esta figura simplemente no existe, lo que significa que sus insumos pueden ser usados como mejor convenga a las autoridades.

Muestra de que a los genios tecnológicos que impulsan la IA a como dé lugar no les importa la privacidad de nadie, recientemente se añadió la opción de permitir que las conversaciones con ChatGPT puedan ser indexadas por buscadores, exponiendo estas interacciones a los miles de millones de personas que navegan por internet y hacen búsquedas en sitios como Google.

Si bien es cierto que esa configuración indexable es opcional, se reporta que muchos usuarios la habilitaron sin siquiera darse cuenta, los riesgos ocultos de la IA son peores de lo que creemos pues entre palabrería amañada y la falta de concentración y pensamiento crítico que viene con este constante bombardeo de tecnología s fácil que el verdadero significado y sus posibles consecuencias pasen desapercibidos. A seguidas, lo impensable: chateos con ChatGPT que se supone son privados aparecen como si nada en búsquedas de Google. Horroroso escenario, ¿no es así?

OpenAI le dio para atrás a esa controversial configuración, pero el daño ya está hecho y deja al descubierto otro de los muchos riesgos que se esconden en las profundidades de la inteligencia artificial.