La revista profesional sobre tecnología y transformación digital

Tribuna

Pascual Teresa

Teresa Pascual Ogueta

Ingeniera de Telecomunicación.

ChatGPT: ¿Herramienta para tod@s?

Estos sistemas de Inteligencia Artificial no tienen ética ni objetivo propios. Los principios morales son los de quienes los controlan

 

Es erróneo creer que es una herramienta que piensa y siente como un ser humano

ChatGPT es una herramienta creada por Open AI (la filial de Microsoft para Inteligencia Artificial). Cualquiera puede utilizarla si tiene un teléfono, tableta o un ordenador conectado a internet. Está en fase de pruebas, no tiene coste y es sencilla de utilizar.

Microsoft se ha adelantado a sus competidores y, en solo dos meses, 100 millones de personas están probando ChatGPT y cediendo parte de su privacidad. Con esta iniciativa, Microsoft obtiene información valiosísima de quién, cómo y para qué utiliza esta herramienta. Con los datos recopilados podrá mejorar su producto. Google y la empresa dueña de Facebook tienen herramientas similares que no están todavía accesibles al público. Hay mucho dinero y poder en juego y la competición entre las grandes tecnológicas es enorme. Todas llevan años investigando e invirtiendo en esta tecnología y Microsoft, con su ChatGPT, les ha obligado a acelerar sus planes.

ChatGPT: Una herramienta novedosa
El buscador de Google supuso un cambio espectacular en la forma en la que conseguimos información. Primero hubo que aprender a distinguir los resultados fiables de los que no lo son, ahora tenemos que lidiar con la publicidad indeseada que aparece en primer lugar como si fuera lo que habíamos pedido y empieza a ser incómodo. Google no tenía quien le hiciera la competencia: lidera el 90% de las búsquedas. Pero herramientas como ChatGPT pueden hacerle perder su hegemonía.

Si el buscador de Google nos ofrece las direcciones web que pueden tener lo que buscamos, ChatGPT busca esa información en la web y con ella genera lo que le pedimos: informes, cartas, relatos, programas… Es una herramienta generativa que utiliza técnicas de Inteligencia Artificial (IA).

El modelo de Inteligencia Artificial que utiliza lo ha desarrollado OpenAI, y OpenAI se define a sí misma como una empresa de investigación y despliegue de Inteligencia Artificial. Afirma que su misión es asegurar que la Inteligencia Artificial general beneficie a toda la humanidad y advierte de que habrá que pagar por su uso aunque no informa de si ese pago evitará que se recojan datos de quien lo utiliza. Ya está disponible un formulario para entrar en una lista de espera y tener acceso cuando el uso bajo suscripción de pago esté disponible.

En la información que se incluye en la herramienta se dice que: “El sistema está diseñado para realizar tareas de procesamiento de lenguaje natural sin necesidad de programación. Está entrenado a partir de un enorme conjunto de datos de texto y puede generar respuestas inteligentes a preguntas complejas”.

Y avisa de que:

  • “Las conversaciones pueden ser revisadas por nuestros entrenadores de IA para mejorar nuestros sistemas”.
  • “Por favor, no compartas ninguna información confidencial en tus conversaciones”.
  • “Hay un conocimiento limitado del mundo y los eventos después de 2021”.

 

La ilusión de la Inteligencia Artificial sin intervención humana
La interacción con la herramienta es con lenguaje coloquial y da la impresión de que detrás de nuestra pantalla hay personas que nos responden al momento. Y, de alguna manera, es cierto: esas personas existen. Efectivamente, ellas no contestan nuestras preguntas, pero con su trabajo manual e invisible evitan que recibamos resultados tóxicos y que el lenguaje en que nos ‘habla’ la herramienta sea el más preciso y natural posible. Esas personas, que trabajan para que la Inteligencia Artificial pueda ser fiable y útil, lo hacen en unas condiciones laborables deplorables. Las reglas automáticas, programadas para evitar que nos lleguen a nuestra pantalla vídeos con imágenes atroces, contenidos supremacistas o violentos, no son capaces de eliminarlos en su totalidad, y son personas las que tienen que etiquetarlos como no reproducibles. Es un proceso manual que implica la exposición a estos productos tóxicos durante largas jornadas de trabajo por un par de dólares la hora. Sin apoyo sicológico, sin preparación previa, es fácil imaginar el riesgo para su salud mental y emocional. La ensayista Astra Taylor denomina a estas aplicaciones automáticas que nos facilitan la vida como ‘Fauxtomation’.

ChatGPT y la Inteligencia
ChatGPT no es inteligente a la manera humana, pero hace cosas inteligentes que no todas las personas saben hacer. Manifiesta sentimientos pero no los tiene: responde a lo que se le pide utilizando textos almacenados que los expresan. El modelo de IA que utiliza ChatGPT maneja los datos de texto a los que se le da acceso y es capaz de procesar lenguaje natural en diversos contextos, como la escritura creativa, el procesamiento de preguntas y respuestas y otras tareas propias del procesamiento de lenguaje natural. Es un sistema muy potente en este campo y ambicioso de intención; útil para demandas concretas, pero no es todavía un sistema de Inteligencia Artificial General.

Hay quien cree que estos sistemas de IA pueden tomar el control y volverse contra los seres humanos, pero no. No tienen ética ni objetivo propios. Los principios morales son los de quienes los controlan. Es erróneo creer que es una herramienta que piensa y siente como un ser humano. En cuanto a su uso, hay que señalar que, cuando se pide a una persona decisiones sobre cuestiones complejas, que afectan a personas o infraestructuras críticas, se le exige que justifique sus conocimientos, dónde los ha adquirido, con qué nivel, cuál es su experiencia y, lo más importante, se le responsabiliza de la resolución adoptada. Si se pretende que un sistema de IA tome el control sobre asuntos de gran trascendencia, el sistema tiene que explicar cómo llega a sus conclusiones y de dónde ha extraído los datos. Por último, y muy importante: ¿quién se responsabiliza de las decisiones que toma la herramienta?

Comparte