La historia interna de cómo ChatGPT fue creado por las personas que lo crearon

Sandini Agarval: Tenemos muchos próximos pasos. Definitivamente creo que la forma en que ChatGPT se volvió viral ha provocado que muchos problemas de los que hemos sido conscientes realmente exploten y se vuelvan críticos, cosas que queremos abordar lo más rápido posible. Sabemos que el modelo todavía está muy sesgado. Y sí, ChatGPT es muy bueno para rechazar solicitudes incorrectas, pero también es bastante fácil escribir avisos para que no rechace lo que queríamos.

Fe Liam: Disfrutamos viendo las diversas y creativas aplicaciones de los usuarios, pero siempre nos enfocamos en las áreas que necesitan mejoras. Creemos que a través de un proceso iterativo a medida que implementamos, recibimos comentarios y mejoramos, podemos crear la tecnología más consistente y efectiva. Con el desarrollo de nuestras tecnologías, inevitablemente surgen nuevos problemas.

Sandini Agarval: En las semanas posteriores al lanzamiento, hemos analizado algunos de los ejemplos más espantosos que la gente ha encontrado, las peores cosas que la gente ha visto en la naturaleza. Evaluamos cada uno de ellos y discutimos cómo podríamos solucionarlo.

Jan Leicke: A veces es algo que se vuelve viral en Twitter, pero tenemos personas que en realidad se comunican en silencio.

Sandini Agarval: Muchas de las cosas que encontramos fueron jailbreaks, y ese es definitivamente un problema que debemos abordar. Pero dado que los usuarios tienen que probar estos métodos complicados para que el modelo diga algo malo, no es algo que nos perdimos por completo, o algo que fue muy inesperado para nosotros. Dicho esto, es algo en lo que estamos trabajando activamente en este momento. Cuando encontramos jailbreaks, los agregamos a nuestros datos de entrenamiento y prueba. Todos los datos que vemos van al modelo futuro.

Jan Leicke: Cada vez que tenemos un modelo mejor, queremos lanzarlo y probarlo. Estamos muy optimistas de que un poco de entrenamiento competitivo específico puede ayudar mucho a mejorar la situación de jailbreak. No está claro si estos problemas desaparecerán por completo, pero creemos que podemos hacer que el jailbreak sea mucho más difícil. Una vez más, no sabíamos que el jailbreak era posible hasta el lanzamiento. Creo que es muy difícil predecir problemas de seguridad reales con estos sistemas una vez que los implementas. Por lo tanto, prestamos mucha atención a monitorear para qué usan las personas el sistema, ver qué sucede y luego reaccionar ante él. Eso no significa que no debamos mitigar proactivamente los problemas de seguridad cuando los anticipamos. Pero sí, es muy difícil predecir todo lo que realmente sucederá cuando el sistema ingrese al mundo real.

En enero, Microsoft presentó Bing Chat, un chatbot de búsqueda que muchos creen que es una versión del GPT-4 no anunciado de OpenAI. (OpenAI dice: “Bing funciona con uno de nuestros modelos de próxima generación que Microsoft ha personalizado específicamente para la búsqueda. Incluye mejoras en ChatGPT y GPT-3.5”.) El uso de chatbots por parte de gigantes tecnológicos multimillonarios para la seguridad plantea nuevas desafíos para aquellos encargados de construir modelos base.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *