Bill Gates no está demasiado asustado por la IA

El multimillonario magnate de los negocios y filántropo presentó su caso en un publicar en su blog personal GatesNotes hoy. “Quiero reconocer las preocupaciones que escucho y leo con más frecuencia, muchas de las cuales comparto, y explicar lo que pienso sobre ellas”, escribe.

Según Gates, la IA es “la tecnología más transformadora que cualquiera de nosotros verá en nuestra vida”. Eso lo coloca por encima de Internet, los teléfonos inteligentes y las computadoras personales, la tecnología que él hizo más que nadie por traer al mundo. (También sugiere que no se inventará nada más que pueda rivalizar con él en las próximas décadas).

Gates fue una de las docenas de figuras de alto perfil que firmaron un declaración emitida por el Centro para la Seguridad de la IA con sede en San Francisco hace unas semanas, que dice, en su totalidad: “Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear”.

Pero no hay alarmismo en la entrada del blog de hoy. De hecho, el riesgo existencial no se ve. En cambio, Gates enmarca el debate como uno que enfrenta el riesgo “a más largo plazo” contra el “inmediato”, y opta por centrarse en “los riesgos que ya están presentes, o que pronto estarán”. .”

“Gates ha estado tocando la misma cuerda durante bastante tiempo”, dice David Leslie, director de investigación de ética e innovación responsable en el Instituto Alan Turing en el Reino Unido. Gates fue una de varias figuras públicas que hablaron sobre el riesgo existencial de la IA hace una década, cuando el aprendizaje profundo despegó por primera vez, dice Leslie: “Solía ​​​​estar más preocupado por la superinteligencia hace mucho tiempo. Parece que eso podría haberse diluido un poco”.

Gates no descarta por completo el riesgo existencial. Se pregunta qué sucederá “cuando”, no si, “desarrollamos una IA que puede aprender cualquier tema o tarea”, a menudo denominada inteligencia artificial general o AGI.

Él escribe: “Ya sea que lleguemos a ese punto en una década o en un siglo, la sociedad tendrá que enfrentarse a preguntas profundas. ¿Qué pasa si una súper IA establece sus propios objetivos? ¿Y si entran en conflicto con los de la humanidad? ¿Deberíamos incluso hacer una súper IA? Pero pensar en estos riesgos a más largo plazo no debería ser a expensas de los más inmediatos”.

Gates ha establecido una especie de término medio entre el pionero del aprendizaje profundo Geoffrey Hinton, quien renunció a Google e hizo públicos sus temores sobre la IA en mayo, y otros como Yann LeCun y Joelle Pineau en Meta AI (quienes piensan que hablar de riesgo existencial es “absurdamente ridículo” y “desquiciado”) o Meredith Whittaker en Signal (quien piensa que los temores compartidos por Hinton y otros son “historias de fantasmas”).

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *