Hay una versión abierta de ChatGPT, para los que saben entrenar algo…

Después de todo el éxito que se ha verificado con ChatGPT, ahora hay una nueva solución abierta para él… para cualquiera que pueda ejecutarlo.

Durante esa semana, Philip Wang, el programador que había realizado ingeniería inversa del sistema de IA de Meta en el pasado, Poner a disposición el nuevo PaLM + RLHF, un generador de texto de IA que funciona en un formato similar al ChatGPT de OpenAI, con la particularidad de ser completamente abierto y gratuito.

Este sistema combina PaLM de Google con una técnica conocida como Reinforcement Learning with Human Feedback – RLHF – para crear un sistema capaz de operar en un formato similar a ChatGPT, incluida la capacidad de escribir correos electrónicos e incluso crear contenido de código pequeño a través de una máquina AI. aprendizaje.

Sin embargo, a diferencia de la solución OpenAI, PaLM+RLHF no cuenta con ningún modelo de formación. Como tal, descargar el código no proporcionará la misma experiencia final que la que encuentra en ChatGPT, a menos que alguien pueda obtener algunos modelos para entrenarlo con gran precisión.

Como muchos otros sistemas de IA, PaLM+RLHF funciona analizando patrones de entrada, que pueden provenir de una variedad de fuentes, y que se utilizan para entrenar a la IA para que realice sus tareas. Y aquí es donde radica el problema para quien pretenda utilizarlo, ya que habrá que «alimentarlo» con la información suficiente para que pueda aportar detalles concretos que incluso se asemeje a lo que encontramos en ChatGPT.

El problema es que la mayoría de los usuarios no tienen estos modelos disponibles para su colección, ni el hardware necesario para su correcto funcionamiento. La tarea de alimentar los modelos al programa es bastante exigente en cuanto a recursos, y lejos de lo que la mayoría de usuarios tienen en cuanto a capacidad de procesamiento para tal tarea.

READ  exFAT obtiene grandes mejoras de rendimiento sobre Linux

Un estudio de 2020 realizado por AI21 Labs estimó que entrenar un modelo con «solo» 1500 millones de parámetros podría costar alrededor de 1,6 millones de dólares, y esas cantidades son relativamente pequeñas si se tiene en cuenta toda la información que debe procesarse para crear algo. cohesivo.

Por tanto, aunque la solución será interesante para analizar las posibilidades del sistema, al mismo tiempo será algo que difícilmente creará ningún tipo de competencia con lo que encontramos en el ChatGPT de OpenAI.

Written By
More from Celio Aragon
Mets Season Preview feat. David Wright, Howie Rose
AP La lista de 30 hombres ya está lista y los Mets...
Read More
Leave a comment

Tu dirección de correo electrónico no será publicada.