La IA estará bien independientemente de quién gane la Casa Blanca

Sam Altman, director ejecutivo de OpenAI, en la reunión anual de Hope Global Forums en Atlanta, Georgia, EE. UU., el lunes 11 de diciembre de 2023.

Cámaras de Dustin | Bloomberg | imágenes falsas

DAVOS, Suiza – El fundador y director ejecutivo de OpenAI, Sam Altman, dijo que la inteligencia artificial generativa como sector y Estados Unidos como país “van a estar bien” sin importar quién gane las elecciones presidenciales a finales de este año.

Altman estaba respondiendo a una pregunta sobre la contundente victoria de Donald Trump en el caucus de Iowa y el público “enfrentado a la realidad de estas próximas elecciones”.

“Creo que Estados Unidos estará bien, pase lo que pase en estas elecciones. Creo que la IA estará bien, pase lo que pase en estas elecciones, y tendremos que trabajar muy duro para que así sea”. Altman dijo esta semana en Davos durante una entrevista en Bloomberg House en el Foro Económico Mundial.

Trump ganó el lunes el caucus republicano de Iowa de manera aplastante, estableciendo un nuevo récord para la carrera de Iowa con una ventaja de 30 puntos sobre su rival más cercano.

“Creo que parte del problema es que decimos: ‘Ahora nos enfrentamos, ya sabes, nunca se nos ocurrió que las cosas que está diciendo podrían resonar en mucha gente y ahora, de repente, después de su actuación en Iowa, oh hombre. Eso es algo muy parecido a lo que se hace en Davos”, dijo Altman.

“Creo que ha habido un verdadero fracaso en aprender lecciones sobre lo que es trabajar para los ciudadanos de Estados Unidos y lo que no”.

Parte de lo que ha impulsado a líderes como Trump al poder es un electorado de clase trabajadora que resiente la sensación de haber sido dejado atrás, y los avances en tecnología amplían la división. Cuando se le preguntó si existe el peligro de que la IA provoque ese daño, Altman respondió: “Sí, seguro”.

“Esto es algo más grande que una simple revolución tecnológica… Por lo tanto, se convertirá en una cuestión social, una cuestión política. Ya lo ha sido en algunos aspectos”.

Mientras los votantes de más de 50 países, que representan la mitad de la población mundial, se dirigen a las urnas en 2024, OpenAI publicó esta semana nuevas directrices sobre cómo planea protegerse contra el abuso de sus populares herramientas de IA generativa, incluido su chatbot, ChatGPT. así como DALL·E 3, que genera imágenes originales.

“Mientras nos preparamos para las elecciones de 2024 en las democracias más grandes del mundo, nuestro enfoque es continuar nuestro trabajo de seguridad de la plataforma elevando información de votación precisa, aplicando políticas mesuradas y mejorando la transparencia”, escribió la compañía con sede en San Francisco en una publicación de blog en Lunes.

Las directrices reforzadas incluyen marcas de agua criptográficas en las imágenes generadas por DALL·E 3, además de prohibir por completo el uso de ChatGPT en campañas políticas.

“Muchas de estas son cosas que hemos estado haciendo durante mucho tiempo, y tenemos un comunicado del equipo de sistemas de seguridad que no solo tiene moderación, sino que también podemos aprovechar nuestras propias herramientas para escalar nuestra aplicación, lo que creo que nos da una ventaja significativa”, dijo Anna Makanju, vicepresidenta de asuntos globales de OpenAI, en el mismo panel que Altman.

Las medidas tienen como objetivo evitar que se repitan las perturbaciones pasadas en elecciones políticas cruciales mediante el uso de tecnología, como el escándalo de Cambridge Analytica en 2018.

Las revelaciones de los informes de The Guardian y otros lugares revelaron que la controvertida consultoría política, que trabajó para la campaña de Trump en las elecciones presidenciales estadounidenses de 2016, recopiló datos de millones de personas para influir en las elecciones.

Altman, cuando se le preguntó sobre las medidas de OpenAI para garantizar que su tecnología no se utilizara para manipular las elecciones, dijo que la compañía estaba “bastante concentrada” en el tema y tiene “mucha ansiedad” por hacerlo bien.

“Creo que nuestro papel es muy diferente al de una plataforma de distribución”, como un sitio de redes sociales o un editor de noticias, dijo. “Tenemos que trabajar con ellos, así que es como si generaras aquí y distribuyeras aquí. Y es necesario que haya una buena conversación entre ellos”.

Sin embargo, Altman añadió que le preocupan menos los peligros del uso de la inteligencia artificial para manipular el proceso electoral que en los ciclos electorales anteriores.

“No creo que esto vuelva a ser lo mismo que antes. Creo que siempre es un error intentar librar la última guerra, pero podemos eliminar algo de eso”, afirmó.

“Creo que sería terrible si dijera: ‘Oh, sí, no estoy preocupado. Me siento genial’. Vamos a tener que observar esto relativamente de cerca este año. [with] monitoreo súper estricto [and] retroalimentación súper ajustada.”

Si bien a Altman no le preocupa el posible resultado de las elecciones estadounidenses a favor de la IA, la forma de cualquier nuevo gobierno será crucial para determinar cómo se regula en última instancia la tecnología.

El año pasado, el presidente Joe Biden firmó una orden ejecutiva sobre IA, que pedía nuevos estándares de seguridad, protección de la privacidad de los ciudadanos estadounidenses y el avance de la equidad y los derechos civiles.

Una cosa que preocupa a muchos reguladores y especialistas en ética de la IA es la posibilidad de que la IA empeore las disparidades sociales y económicas, especialmente porque se ha demostrado que la tecnología contiene muchos de los mismos prejuicios que tienen los humanos.

Leave a Comment