Necesitamos traer el consentimiento a la IA

Esta historia apareció originalmente en The Algorithm, nuestro boletín semanal sobre IA. Para recibir historias como esta en su bandeja de entrada primero, Registrate aquí.

La gran noticia de esta semana es que Geoffrey Hinton, vicepresidente y miembro de ingeniería de Google, y pionero del aprendizaje profundo que desarrolló algunas de las técnicas más importantes en el corazón de la IA moderna, deja la empresa después de 10 años.

Pero primero, debemos hablar sobre el consentimiento en IA.

La semana pasada, OpenAI anunció que es Lanzamiento de un modo “incógnito” que no guarda el historial de conversaciones de los usuarios ni lo usa para mejorar su modelo de lenguaje de IA ChatGPT. La nueva función permite a los usuarios desactivar el historial de chat y la capacitación y les permite exportar sus datos. Este es un movimiento bienvenido para dar a las personas más control sobre cómo una empresa de tecnología utiliza sus datos.

La decisión de OpenAI de permitir que las personas opten por no participar se produce cuando la empresa está bajo una presión cada vez mayor por parte de los reguladores europeos de protección de datos sobre cómo usa y recopila los datos. OpenAI tenía hasta ayer, 30 de abril, para acceder a las solicitudes de Italia de cumplir con el RGPD, el estricto régimen de protección de datos de la UE. Italia acceso restaurado a ChatGPT en el país después de que OpenAI introdujera un formulario de exclusión del usuario y la capacidad de objetar el uso de datos personales en ChatGPT. El regulador había argumentado que OpenAI ha absorbido los datos personales de las personas sin su consentimiento y no les ha dado ningún control sobre cómo se utilizan.

En una entrevista la semana pasada con mi colega Will Douglas Heaven, la directora de tecnología de OpenAI, Mira Murati, dijo que el modo de incógnito era algo en lo que la compañía había estado “dando pasos iterativos” durante un par de meses y que los usuarios de ChatGPT lo habían solicitado. OpenAI dijo Reuters sus nuevas funciones de privacidad no estaban relacionadas con las investigaciones del RGPD de la UE.

“Queremos poner a los usuarios en el asiento del conductor cuando se trata de cómo se usan sus datos”, dice Murati. OpenAI dice que aún almacenará los datos de los usuarios durante 30 días para monitorear el mal uso y el abuso.

Pero a pesar de lo que dice OpenAI, Daniel Leufer, analista sénior de políticas del grupo de derechos digitales Access Now, reconoce que el RGPD, y la presión de la UE, han jugado un papel en obligar a la empresa a cumplir con la ley. En el proceso, ha mejorado el producto para todos en todo el mundo.

“Las buenas prácticas de protección de datos hacen que los productos sean más seguros [and] mejor [and] dar a los usuarios una agencia real sobre sus datos”, él dijo en Twitter.

Mucha gente se sumerge en el RGPD como un aburrimiento que sofoca la innovación. Pero como señala Leufer, la ley muestra a las empresas cómo pueden hacer mejor las cosas cuando se ven obligadas a hacerlo. También es la única herramienta que tenemos ahora que le da a la gente cierto control sobre su existencia digital en un mundo cada vez más automatizado.

Otros experimentos en IA para otorgar a los usuarios más control muestran que existe una clara demanda de tales características.

Desde fines del año pasado, las personas y las empresas han podido optar por no incluir sus imágenes en el conjunto de datos LAION de código abierto que se ha utilizado para entrenar el modelo de IA de generación de imágenes Stable Diffusion.

Desde diciembre, alrededor de 5000 personas y varias grandes plataformas de imágenes y arte en línea, como Art Station y Shutterstock, han solicitado que se eliminen más de 80 millones de imágenes del conjunto de datos, dice Mat Dryhurst, cofundador de una organización llamada Spawning que está desarrollando el función de exclusión voluntaria. Esto significa que sus imágenes no se utilizarán en la próxima versión de Stable Diffusion.

Dryhurst cree que las personas deberían tener derecho a saber si su trabajo se ha utilizado o no para entrenar modelos de IA y que, para empezar, deberían poder decir si quieren ser parte del sistema.

“Nuestro objetivo final es construir una capa de consentimiento para la IA, porque simplemente no existe”, dice.

Aprendizaje más profundo

Geoffrey Hinton nos cuenta por qué ahora le tiene miedo a la tecnología que ayudó a construir

Geoffrey Hinton es un pionero del aprendizaje profundo que ayudó a desarrollar algunas de las técnicas más importantes en el corazón de la inteligencia artificial moderna, pero después de una década en Google, se retira para enfocarse en las nuevas preocupaciones que ahora tiene sobre la IA. El editor sénior de inteligencia artificial de MIT Technology Review, Will Douglas Heaven, se reunió con Hinton en su casa en el norte de Londres solo cuatro días antes del bombazo anuncio de que dejaría Google.

Sorprendido por las capacidades de los nuevos modelos de lenguaje grande como GPT-4, Hinton quiere crear conciencia pública sobre los graves riesgos que ahora cree que pueden acompañar a la tecnología que introdujo.

Y oh chico, tenía mucho que decir. “De repente cambié mi punto de vista sobre si estas cosas van a ser más inteligentes que nosotros. Creo que están muy cerca de eso ahora y serán mucho más inteligentes que nosotros en el futuro”, le dijo a Will. “¿Cómo sobrevivimos a eso?” Lea más de Will Douglas Heaven aquí.

Aprendizaje aún más profundo

Un chatbot que hace preguntas podría ayudarlo a detectar cuándo no tiene sentido

Los chatbots de IA como ChatGPT, Bing y Bard a menudo presentan falsedades como hechos y tienen una lógica inconsistente que puede ser difícil de detectar. Una forma de evitar este problema, sugiere un nuevo estudio, es cambiar la forma en que la IA presenta la información.

Sócrates virtual: Un equipo de investigadores del MIT y la Universidad de Columbia descubrió que hacer que un chatbot hiciera preguntas a los usuarios en lugar de presentar información como declaraciones ayudó a las personas a notar cuándo la lógica de la IA no encajaba. Un sistema que hacía preguntas también hizo que las personas se sintieran más a cargo de las decisiones tomadas con IA, y los investigadores dicen que puede reducir el riesgo de dependencia excesiva de la información generada por IA. Lea más de mí aquí.

Bits y bytes

Palantir quiere que los militares usen modelos de lenguaje para pelear guerras
La controvertida empresa de tecnología ha lanzado una nueva plataforma que utiliza modelos de lenguaje de IA de código abierto existentes para permitir a los usuarios controlar drones y planificar ataques. Esta es una idea terrible. Los modelos de lenguaje de IA con frecuencia inventan cosas y son ridículamente fáciles de piratear. La implementación de estas tecnologías en uno de los sectores de mayor riesgo es un desastre a punto de ocurrir. (Vicio)

Hugging Face lanzó una alternativa de código abierto a ChatGPT
AbrazosChat funciona de la misma manera que ChatGPT, pero es de uso gratuito y para que las personas creen sus propios productos. Las versiones de código abierto de modelos populares de IA están en racha: a principios de este mes, Stability.AI, creador del generador de imágenes Stable Diffusion, también lanzó una versión de código abierto de un chatbot de IA, EstableLM.

Cómo surgió el chatbot Bing de Microsoft y hacia dónde se dirige ahora
Aquí hay una buena mirada detrás de escena del nacimiento de Bing. Me pareció interesante que para generar respuestas, Bing no siempre usa el modelo de lenguaje GPT-4 de OpenAI, sino los propios modelos de Microsoft, que son más baratos de ejecutar. (cableado)

AI Drake acaba de tender una trampa legal imposible para Google
Mis feeds de redes sociales se han inundado con canciones generadas por IA que copian los estilos de artistas populares como Drake. Pero como señala este artículo, esto es solo el comienzo de una espinosa batalla de derechos de autor sobre la música generada por IA, la extracción de datos de Internet y lo que constituye un uso justo. (el borde)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *