Actualidad

  • La Inteligencia Artificial que reta la forma en la que nos comunicamos con las máquinas

    A mediados de este mes de diciembre de 2022 ocurrió un antes y un después en la era de la Inteligencia Artificial, más concretamente en el campo del procesamiento del Lenguaje Natural, NLP (Natural Language Processing), que es el área que investiga en cómo los ordenadores entienden el lenguaje humano, lo interpretan y lo procesan.

    Este es un campo bastante complejo en el que entran en juego diferentes disciplinas como la Inteligencia Artificial (IA), el Big Data o la lingüística, en el que se persigue que las máquinas sean capaces de comprender e interactuar a través de la escritura.

    inteligencia artificial que reta la forma la que nos comunicamos con las maquinas cajasiete

    Durante este mes, la empresa OpenAI liberó el Chat GPT-3 (en inglés, Generative Pre-trained Transformer), basado en un modelo de inteligencia artificial que permite no solo generar lenguaje escrito, sino interactuar con seres humanos de una forma muy realista.

    Este chat se basa en el lenguaje GPT-3, el cual tiene más de 175 millones de parámetros y ha sido entrenado con grandes cantidades de texto, enseñándole a entender y a responder de la misma forma con la que nosotros nos comunicamos, a través del lenguaje.

    Para ver la potencialidad que tiene, le hemos preguntado “Cómo se entrenó GPT3”, y esta es la respuesta:

    GPT-3 (Generative Pre-training Transformer 3) es un modelo de lenguaje desarrollado por OpenAI. Fue entrenado en una gran cantidad de textos de Internet con el objetivo de poder realizar tareas de procesamiento del lenguaje natural, como la traducción, la resolución de problemas y la escritura de textos coherentes. Para entrenar a GPT-3, se utilizó una técnica llamada "pretratamiento genérico".

    Esto implica entrenar un modelo en una gran cantidad de textos de diferentes fuentes, con el objetivo de aprender a procesar y comprender el lenguaje natural de manera general. Luego, este modelo pretratado se puede "fine-tunear" para realizar tareas específicas, como la traducción o la resolución de problemas. El entrenamiento de GPT-3 se realizó en un conjunto de datos llamado "WebText", que incluye una gran cantidad de textos de Internet, incluyendo noticias, blogs, foros y sitios web. Se utilizó una red neuronal de gran escala llamada Transformer para procesar este texto y aprender a comprender y producir el lenguaje natural.

    Fuente: https://chat.openai.com/chat

    Leyendo esto podemos darnos cuenta de por qué ha sorprendido tanto, ya que está considerado como uno de los sistemas de IA más potentes vistos hasta el momento, capaz de responder cuestiones muy variadas, como traducir, programar, hacer un escrito o un contrato de arrendamiento.

    Se le entrenó con información extraída de Internet que data hasta septiembre de 2021, y su seguridad en darnos las respuestas no nos hace dudar en un primer momento, aunque algunas respuestas contienen cierto sesgo, e incluso certezas que habría que poner en duda y contrastar. Pero es un comienzo, quizás el talón de Aquiles de Google, el santo grial de muchos, que puede provocar una verdadera revolución digital.

    Ya no se trata sólo de buscar, sino de encontrar realmente lo que se le pregunta, cuya información puede ser la composición de varias fuentes distintas. GPT3 ya ayuda en redacciones de periódicos, en bots, y se monetiza a través del pago de una tarifa por el uso de sus servicios.

Noticias anteriores

No se ha configurado el bloque correctamente