En las últimas semanas hemos visto como ChatGPT y Bing con ChatGPT están comenzando a mostrar problemas en su funcionamiento: no es solo que estos chatbots se equivoquen: es que durante la conversación acaban tomando posturas poco objetivas, defensivas y, en algunos casos extrañas e incluso ofensivas con los usuarios.
En OpenAI (y en Microsoft) lo saben, y los responsables de estos chatbots han indicado en un artículo en el blog oficial que están desarrollando una versión mejorada para ChatGPT que tendrá una característica interesante: podremos «personalizarlo».
La firma explicaba cómo desde su lanzamiento los usuarios «han compartido resultados que consideran políticamente tendenciosos, ofensivos o censurables. En muchos casos, creemos que las preocupaciones que se plantearon son válidas; han puesto de manifiesto limitaciones reales de nuestros sistemas que queremos solucionar».
El funcionamiento de ChatGPT se basa en redes neuronales en las que primero se realiza un «pre-entrenamiento» con un gran conjunto de datos para luego pasar a una fase en la que se pule el modelo para ir afinando el comportamiento del chatbot gracias a la interacción con los «revisores» de esas respuestas, que van ajustándolas de acuerdo a ciertas directrices.
Un proceso imperfecto
Los ingenieros de OpenAI reconocen que el proceso es imperfecto, y tras estas primeras semanas y lo que han aprendido. «Vamos a proporcionar instrucciones más claras a los revisores sobre los posibles escollos y retos relacionados con la parcialidad, así como sobre las figuras y temas controvertidos».
Se trabajará también sobre potenciales sesgos derivados de la demografía, y se aplicarán mejoras que se han descubierto recientemente con técnicas como las recompensas basadas en reglas o la llamada «IA Constitucional». La firma sobre todo destacaba tres grandes pilares de los cambios que se llevarán a cabo.
Mejorar el comportamiento por defecto: se tratarán de eliminar los sesgos y también esos casos en los que el sistema «se inventa cosas«; algo para lo que los comentarios de los usuarios —votando a las respuestas y añadiendo información adicional— contribuyen notablemente.
- Personalización: ChatGPT permitirá que los usuarios personalicen su comportamiento permitiendo que se produzcan respuestas (outputs) con las que otras personas podrían no estar de acuerdo. Habrá, eso sí, límites, y el reto es definir esas barreras para evitar «usos maliciosos» de la tecnología.
2. Participación popular: en OpenAI quieren dar a la gente la capacidad de «influir en las reglas del sistema«; e incluir «tantas perspectivas como sea posible», por ejemplo en ámbitos como el educativo.
3. Con estas medidas la idea es pasar de un modelo «pulido» (fine-tuned); a varios que se derivan de él y que están personalizados y ajustados a los usuarios. Desde ese punto, la idea es iterar; para mejorar más y más el comportamiento de un ChatGPT que desde luego quiere aprender de estos errores iniciales.