El peligro de convertir a la inteligencia artificial en inteligencia humanizada

IA.jpg
segunda.jpg

Este año hemos sido testigos de un fenómeno que asusta a algunas personas y fascina a otras.

La aparición del ChatGPT y otros modelos de lenguaje de inteligencia artificial (IA) que pueden realizar traducciones, responder consultas sobre los temas más variados, redactar textos literarios en el estilo de grandes escritores, y también artículos científicos.

Esta capacidad, que hasta ahora sólo parecía resultado de una película de ciencia ficción, ha generado cuestionamientos varios.

Desde los que temen que en el futuro la IA reemplace al humano, no sólo en tareas automáticas sino en la literatura y la ciencia, hasta los que plantean que las máquinas puedan volverse concientes y manejar al mundo.

Los especialistas en Etica de la tecnología han señalado que los chatbots plantean nuevas e importantes preguntas sobre cómo la inteligencia artificial puede influir en nuestras vidas, y el impacto que nuestras vulnerabilidades psicológicas pueden causar en las interacciones con las tecnologías emergentes.

La cultura popular ha preparado a la gente para que piense que, en algún momento, la inteligencia artificial pueda evadir el control humano y cobrar vida propia. Si así fuera, la IA sería la mayor amenaza para el futuro de la humanidad.

Una preocupación infundada

Pero, para nuestra tranquilidad, al menos en lo que respecta a los grandes modelos de lenguaje, estas preocupaciones son infundadas.

Los grandes modelos de lenguaje son redes neuronales entrenadas con una gran cantidad de datos para aprender y reproducir la estructura del lenguaje.

Estos modelos pueden utilizarse para diversas tareas, como el procesamiento del lenguaje natural, la traducción automática y la generación automática de textos.

ChatGPT y tecnologías similares son aplicaciones sofisticadas diseñadas para completar oraciones, nada más y nada menos.

Son modelos que han logrado resultados de vanguardia en una serie de tareas y han demostrado que pueden ser utilizados para una gran variedad de aplicaciones.

Los grandes modelos de lenguaje, pueden aprender la estructura del lenguaje; aprender de datos aún no etiquetados, ya que incorporan las correcciones que le hace el usuario; y también rendir satisfactoriamente en usos muy diferentes, como la traducción y generación de textos.

Esas habilidades pueden hacernos creer (y temer) que la máquina piensa, porque tal vez nos resulta difícil diferenciar la respuesta que nos brinda de la respuesta que podría darnos un humano.

Pero eso no es evidencia de sensibilidad de la máquina. En todo caso sería la prueba de nuestras propias limitaciones para definir qué es ser conciente, sensible y humano.

Cuidado con humanizar a la inteligencia artificial

Tal vez quienes se asustan de los avances de la IA deberían preguntarse por qué tienden a humanizar a una máquina por el hecho de que es capaz de reunir toda la información disponible y redactar un artículo de divulgación científica (aunque no podría generar una investigación nueva), o recomendar un buen hotel o un buen restaurante. E incluso ser capaz de organizar una visita turística a centros culturales de la ciudad a la que vamos a viajar en vacaciones.

Estamos predispuestos a atribuir cualidades humanas a lo no humano.

Y la tendencia a ver a las máquinas como personas, combinada con el desarrollo de máquinas con características similares a las humanas, puede conducirnos a riesgos reales de enredos psicológicos con la tecnología.

Debemos estar muy alertas porque las empresas tecnológicas lanzan tecnologías que son sumamente atractivas y pueden ayudarnos a solucionar muchas situaciones de nuestra vida diaria. Pero debemos saber distinguir la realidad de la ficción.

Los chatbox y otros grandes modelos de lenguaje pueden ayudarnos a buscar información, escribir, traducir. Tal vez algún día puedan ser combinados con la robótica.

Pero cuidémonos de que puedan aprovechar nuestra tendencia a humanizar los objetos, especialmente los que imitan nuestros rasgos humanos, porque podemos llegar a ser manipulados políticamente y emocionalmente por ellos.

Y no podemos confiar en que las grandes empresas tecnológicas tengan en cuenta que son necesarias algunas barreras éticas para que las tecnologías no se conviertan en manipuladoras políticas y/o psicológicas.

Eso depende de nosotros.

El peligro no es la IA, que puede ser una herramienta maravillosa, sino el uso que hagamos de ella.

Cuidado con enamorarnos de nuestro asistente virtual, como le ocurría al protagonista de una película bastante reciente.

Publicar un nuevo comentario

El contenido de este campo se mantiene como privado y no se muestra públicamente.


  • Las direcciones de las páginas web y las de correo se convierten en enlaces automáticamente.
  • Allowed HTML tags: <a> <em> <strong> <cite> <code> <ul> <ol> <li> <dl> <dt> <dd>
  • Saltos automáticos de líneas y de párrafos.

Más información sobre opciones de formato