ChatGPT puede llegar a ser ofensivo. Así que OpenAI va a pulirlo e incluso dejará que lo personalicemos

ChatGPT puede llegar a ser ofensivo. Así que OpenAI va a pulirlo e incluso dejará que lo personalicemos

* xataka.com * #android #tech #tecnologia

En las últimas semanas hemos visto como ChatGPT y Bing con ChatGPT están comenzando a mostrar problemas en su funcionamiento: no es solo que estos chatbots se equivoquen: es que durante la conversación acaban tomando posturas poco objetivas, defensivas y, en algunos casos extrañas e incluso ofensivas con los usuarios.

En OpenAI (y en Microsoft) lo saben, y los responsables de estos chatbots han indicado en un artículo en el blog oficial que están desarrollando una versión mejorada para ChatGPT que tendrá una característica interesante: podremos "personalizarlo".

La firma explicaba cómo desde su lanzamiento los usuarios "han compartido resultados que consideran políticamente tendenciosos, ofensivos o censurables. En muchos casos, creemos que las preocupaciones planteadas son válidas y han puesto de manifiesto limitaciones reales de nuestros sistemas que queremos solucionar".

El funcionamiento de ChatGPT se basa en redes neuronales en las que primero se realiza un "pre-entrenamiento" con un gran conjunto de datos para luego pasar a una fase en la que se pule el modelo para ir afinando el comportamiento del chatbot gracias a la interacción con los "revisores" de esas respuestas, que van ajustándolas de acuerdo a ciertas directrices.

Los ingenieros de OpenAI reconocen que el proceso es imperfecto, y tras estas primeras semanas y lo que han aprendido, indican que "vamos a proporcionar instrucciones más claras a los revisores sobre los posibles escollos y retos relacionados con la parcialidad, así como sobre las figuras y temas controvertidos".

Se trabajará también sobre potenciales sesgos derivados de la demografía, y se aplicarán mejoras que se han descubierto recientemente con técnicas como las recompensas basadas en reglas o la llamada "IA Constitucional". La firma sobre todo destacaba tres grandes pilares de los cambios que se llevarán a cabo.

  1. Mejorar el comportamiento por defecto: se tratarán de eliminar los sesgos y también esos casos en los que el sistema "se inventa cosas", algo para lo que los comentarios de los usuarios —votando a las respuestas y añadiendo información adicional— contribuyen notablemente.
  2. Personalización: ChatGPT permitirá que los usuarios personalicen su comportamiento permitiendo que se produzcan respuestas (outputs) con las que otras personas podrían no estar de acuerdo. Habrá, eso sí, límites, y el reto es definir esas barreras para evitar "usos maliciosos" de la tecnología.
  3. Participación popular: en OpenAI quieren dar a la gente la capacidad de "influir en las reglas del sistema" e incluir "tantas perspectivas como sea posible", por ejemplo en ámbitos como el educativo.

Con estas medidas la idea es pasar de un modelo "pulido" (fine-tuned) a varios que se derivan de él y que están personalizados y ajustados a los usuarios. Desde ese punto, la idea es iterar para mejorar más y más el comportamiento de un ChatGPT que desde luego quiere aprender de estos errores iniciales.

Imagen: Javier Pastor con Midjourney


source
Segun xataka.com

Comments

No comments yet. Why don’t you start the discussion?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *