Uso de cookies

Este sitio web solo utiliza cookies técnicas propias obligatorias con la finalidad de hacer que su navegación sea segura.
Asimismo, utiliza cookies de terceros opcionales para hacer análisis estadístico de las visitas a la web y conocer su usabilidad.
Si desea más información o cambiar la configuración de su navegador, puede visitar nuestra Política de Cookies.
Pulse el botón "Rechazar cookies opcionales" o "Aceptar todas las cookies" para confirmar que ha leído y aceptado la información aquí presentada.

Inteligencia artificial generativa: Un punto de no retorno en la evolución tecnológica

Junio de 2023
La inteligencia artificial generativa hace referencia a una nueva generación de algoritmos de inteligencia artificial capaces de crear contenido mediante técnicas de aprendizaje automático. Estos algoritmos se entrenan con datos existentes y, tras su aprendizaje, son capaces de generar nuevos contenidos (texto, audio, video, imagen, código, etc.) como si éstos hubieran sido generados por un humano. Una instrucción o prompt por parte de un usuario desencadena el proceso creativo de estas herramientas generativas. Pero ¿nos encontramos ante uno de esos hypes tecnológicos, o ante una nueva tecnología realmente disruptiva?

La inteligencia artificial generativa está avanzando a una velocidad increíble en los últimos años, y especialmente en los últimos meses. La carrera por la innovación en este tipo de sistemas está siendo incansable por parte de las grandes compañías tecnológicas, como OpenAI, Microsoft, Google o Meta. Estas se encuentran inmersas en el proceso de búsqueda de las inteligencias artificiales más avanzadas que nos permitan optimizar el trabajo y ser más eficientes y productivos en nuestro día a día, al mismo tiempo que las empresas tratan de encontrar la mejor estrategia para adoptar el uso de estos sistemas.

A la par que esto sucede, un grupo de expertos en inteligencia artificial alerta del riesgo del uso de estas tecnologías, y piden "Pausen los experimentos gigantes de inteligencia artificial (IA)" [1] Mediante una carta abierta, los expertos reclaman parar durante seis meses el entrenamiento de estos sistemas de inteligencia artificial y que el desarrollo de estos potentes modelos se haga bajo una robusta regulación que vele por la creación de inteligencias artificiales responsables.

Las inteligencias artificiales generativas pueden mejorar y acelerar la productividad en el trabajo. Estos sistemas son capaces de realizar diversas tareas, a diferencia de sistemas de inteligencia artificial tradicionales que únicamente podían realizar una. Algunos ejemplos de tareas en los que estos sistemas son realmente eficientes son:

  • Resumir: un consultor puede resumir los puntos principales de una reunión a partir de sus notas.
  • Clasificar: un analista de call-center puede clasificar las opiniones de los clientes en base a una categorización de sentimiento.
  • Editar: un diseñador gráfico puede editar automáticamente sus imágenes para eliminar o añadir elementos.
  • Responder preguntas: un profesor puede crear un chatbot que responda dudas a los alumnos de manera automática.
  • Generación de borradores: un programador puede usar un asistente de programación para generar las primeras líneas de código de una función para posteriormente adaptarla y mejorarla.
  • Traducción: un traductor o intérprete puede acelerar su trabajo usando un asistente de traducción automático.

Visto lo anterior, parece claro el efecto positivo de los modelos generativos para mejorar el trabajo diario de las personas, potenciando su productividad y optimizando los resultados [2].

Las inteligencias artificiales generativas también presentan varios retos que las empresas y usuarios deberán enfrentar para adaptar a sus equipos y procesos a esta nueva realidad que obliga a un uso responsable de las mismas:

  • Justicia e imparcialidad: los datos con los que son entrenados los modelos son imperfectos ya que normalmente han sido previamente etiquetados en un proceso manual, lo cual lo hace más propenso a errores. Estos problemas en la recopilación de los datos pueden trasladarse a los algoritmos creando algoritmos sesgados. Los ingenieros algorítmicos pueden trasladar a las inteligencias artificiales otra serie de sesgos, denominados sesgos implícitos, tales como sesgos culturales (prejuicios contra grupos étnicos o culturales), sesgos de género (prejuicios contra las mujeres), sesgos cognitivos (tendencias a sobrevalorar o ignorar ciertos tipos de datos) o sesgos políticos (favorecimiento de ciertas ideologías sobre otras). Estos sesgos implícitos pueden tener impactos negativos en las personas afectadas por la toma de decisiones de estos sistemas.
  • Propiedad intelectual: en este aspecto se generan dos problemas. El primero tiene relación con los contenidos usados para entrenar las inteligencias artificiales. Muchas de las imágenes, textos, código, etc. empleado en su entrenamiento puede estar protegido por derechos de autor y generar reclamaciones a las empresas que han entrenado estos sistemas. El segundo tiene relación con el contenido generado: ¿a quién pertenece dicho contenido? ¿al usuario que lo ha generado utilizando la inteligencia artificial? ¿a la compañía que se ocupó de la creación de la herramienta? ¿a los autores de los que se sirvieron para entrenar el sistema? [3]
  • Privacidad: en estos sistemas avanzados de inteligencia artificial preocupa que existan fugas de datos que pongan al descubierto datos personales de individuos identificables. Existe la posibilidad de que para el entrenamiento se hayan empleado datos personales que se acaben introduciendo en el contenido generado.
  • Comunicación: mediante inteligencia artificial podemos generar contenido falso o engañoso, lo que plantea problemas para asegurar la veracidad y confiabilidad de la información. En las últimas semanas hemos visto imágenes generadas por inteligencia artificial (como el Papa Francisco vestido de trapero o el arresto falso de Donald Trump) que nos obliga a parar y tratar de verificar su autenticidad antes de tomarlas en serio. Será necesario introducir sistemas de marcas de agua en los contenidos generados mediante estas herramientas para diferenciarlos del contenido real.
  • Seguridad: del mismo modo que se pueden usar estas herramientas y aplicaciones para mejorar nuestra productividad, también se pueden usar para fines menos éticos. La ciberdelincuencia también es un negocio lucrativo, y empleando herramientas de este tipo se puede acelerar la sofisticación de los ciberataques. Por ejemplo, ya están apareciendo las primeras técnicas de prompt injection (técnica utilizada para agregar información adicional al modelo de lenguaje generativo) para manipular las inteligencias artificiales generativas y producir salidas imprevistas por el creador del sistema mediante prompts que engañan al modelo [4].
  • Explicabilidad: las inteligencias artificiales generativas son creadas mediante modelos de Deep Learning, redes neuronales con billones de parámetros, lo que hace altamente improbable poder explicar cómo se generan o producen las salidas
  • Fiabilidad: existen diferentes motivos por los que debe tenerse precaución al emplear inteligencias artificiales generativas. En primer lugar, los modelos generativos pueden producir diferentes salidas al mismo prompt, lo cual puede generar en el usuario inseguridad a la hora de usarlos. En segundo lugar, debe añadirse lo expuesto anteriormente referente a los sesgos que se pueden producir por la calidad de los datos o problemas en su entrenamiento. Por último, las alucinaciones de los modelos generativos de texto [5], como ChatGPT, que producen salidas realistas pero falsas aumentan la incertidumbre en el uso de estos sistemas.
  • Sostenibilidad: el entrenamiento de estos modelos generativos requiere de altas necesidades de computación, horas y horas de unidades de procesamiento gráfico o GPU, las cuales requieren de grandes cantidades de energía y por consiguiente, incremento de las emisiones de carbono [6].

Por todo lo expuesto anteriormente, . La creación de un marco sólido que garantice el desarrollo de modelos de inteligencia artificial responsables, garantizando la transparencia y la explicabilidad de los mismos, se hace obligatoria. También es imprescindible el desarrollo, en el corto y medio plazo, de directivas éticas y organismos de supervisión del impacto de estos sistemas en la sociedad, de modo que se garantice su uso responsable y minimizar el riesgo de un mal uso[7].

Nota: el título del presente artículo ha sido generado mediante inteligencia artificial generativa, ChatGPT.


[1] Varios. Pause Giant AI Experiments: An Open Letter. [Online] marzo 22, 2023. https://futureoflife.org/open-letter/pause-giant-ai-experiments/.
[2] Afi. Impacto de la inteligencia artificial en la economía española. Efectos sobre el crecimiento económico. Afi. [Online] mayo 4, 2023.https://www.afi.es/2023/05/04/inteligencia-artificial-crecimiento-economico/.
[3] Gonzalo, Marilín. ChatGPT, Midjourney y las IA generativas tienen un problema de propiedad intelectual. Newtral. [Online] abril 23, 2023. https://www.newtral.es/ia-generativas-propiedad-intelectual-chatgpt-midjourney/20230423/.
[4] HungryMinded. ricking ChatGPT: Do Anything Now Prompt Injection. Medium. [Online] febrero 15, 2023. https://medium.com/seeds-for-the-future/tricking-chatgpt-do-anything-now-prompt-injection-a0f65c307f6b.
[5] Merino, Marcos. Las inteligenciar artificiales ´mienten´ porque alucinan, y el ChatGPT de Bing alucina aún más. Los JPG ayudan a entender por qué. Genbeta [Online] febrero 14, 2023. https://www.genbeta.com/a-fondo/inteligencias-artificiales-mienten-porque-alucinan-chatgpt-bing-alucina-jpg-ayudan-a-entender-que.
[6] Foncillas, Borja. IA, energía y computación. Empresa Global. [Online] abril 2023. https://www.empresaglobal.es/EGAFI/contenido/2283996/1601152/ia-energia-y-computacion.html.
[7] Sam Altman, Greg Brockman, Ilya Sutskever. Governance of superintelligence. OpenAI Blog. [Online] mayo 22, 2023. https://openai.com/blog/governance-of-superintelligence.


José Manuel Rodríguez es consultor de Afi