Cómo crear, lanzar y compartir responsablemente la IA generativa

“Si realmente queremos resolver estos problemas, tenemos que tomarlo en serio”, dice Farid. Por ejemplo, quiere que los proveedores de servicios en la nube y las tiendas de aplicaciones, como las administradas por Amazon, Microsoft, Google y Apple, que son parte de PAI, prohíban los servicios que permiten a las personas usar tecnología deepfake para crear sexo no consentido. imágenes. Las marcas de agua en todo el contenido generado por IA también deberían ser obligatorias, no voluntarias, dijo.

Otra cosa importante que falta es cómo hacer que los sistemas de IA sean más responsables, dice Ilke Demir, científica sénior de Intel que dirige el trabajo de la empresa sobre el desarrollo responsable de la inteligencia artificial generativa. Esto puede incluir más detalles sobre cómo se entrenó el modelo de IA, qué datos se incorporaron y si los modelos de IA generativa tienen algún sesgo.

Las pautas no abordan la garantía de que el conjunto de datos de los modelos generativos de IA esté libre de contenido tóxico. “Es una de las formas más importantes en que estos sistemas están dañando”, dijo Danielle Leufer, analista principal de políticas del grupo de derechos digitales Access Now.

Las pautas incluyen una lista de daños que estas empresas quieren prevenir, como el fraude, el acoso y la desinformación. Pero el modelo generativo de IA, que siempre crea personas blancas, también es dañino y actualmente está fuera de la lista, agrega Demir.

Farid plantea una cuestión más fundamental. A medida que las empresas reconocen que la tecnología puede causar un daño grave y proponen formas de mitigarlo, “¿por qué no preguntan: ‘¿Deberíamos estar haciendo esto en primer lugar?’”

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *