La conferencia contó con muchos robots (incluido uno que dispensa vino), pero lo que más me gustó fue cómo logró convocar a personas que trabajan en IA de todo el mundo, con oradores de China, Medio Oriente y África también, como como Pelonomi Moiloa, directora ejecutiva de Lelapa AI, una startup que crea inteligencia artificial para idiomas africanos. La IA puede estar muy centrada en Estados Unidos y estar dominada por los hombres, y cualquier esfuerzo por hacer que la conversación sea más global y diversa es loable.

Pero, sinceramente, no salí de la conferencia con la sensación de que la IA iba a desempeñar un papel significativo en el avance de cualquiera de los objetivos de la ONU. De hecho, los discursos más interesantes versaron sobre cómo la IA está haciendo lo contrario. Sage Lenier, un activista climático, habló de cómo no debemos permitir que la IA acelere la destrucción ambiental. Tristan Harris, cofundador del Center for Humane Technology, dio una charla convincente conectando los puntos entre nuestra adicción a las redes sociales, los incentivos financieros del sector tecnológico y nuestra incapacidad para aprender de los auges tecnológicos anteriores. Y todavía hay prejuicios de género profundamente arraigados en la tecnología, nos recordó Mia Shah-Dand, fundadora de Women in AI Ethics.

Entonces, si bien la conferencia en sí versó sobre el uso de la IA para el “bien”, me hubiera gustado ver más conversaciones sobre cómo una mayor transparencia, responsabilidad e inclusión podrían hacer que la IA sea más beneficiosa. sí mismo bueno desde el desarrollo hasta la implementación.

Ahora sabemos que generar una imagen con IA generativa consume tanta energía como cargar un teléfono inteligente. Me hubiera gustado tener conversaciones más honestas sobre cómo hacer que la tecnología sea más sostenible para cumplir los objetivos climáticos. Y fue desconcertante escuchar debates sobre cómo se puede utilizar la IA para ayudar a reducir las desigualdades cuando sabemos que muchos de los sistemas de IA que utilizamos se basan en moderadores de contenido humanos en el Sur Global que examinan contenido traumatizante mientras se les paga. miseria.

El director ejecutivo de OpenAI, Sam Altman, el orador estrella de la cumbre, defendió el “tremendo beneficio” de la IA. Altman fue entrevistado remotamente por Nicholas Thompson, el CEO de Atlantic, que por cierto acaba de anunciar un acuerdo para que OpenAI comparta su contenido para entrenar nuevos modelos de IA. OpenAI es el empresa que instigó el actual auge de la IA, y habría sido una gran oportunidad para preguntarle sobre todas estas cuestiones. En cambio, los dos tuvieron una discusión relativamente vaga y de alto nivel sobre la seguridad, sin que la audiencia supiera qué está haciendo exactamente OpenAI para hacer que sus sistemas sean más seguros. Parecía que se suponía que simplemente debían confiar en la palabra de Altman.

La charla de Altman se produjo aproximadamente una semana después de que Helen Toner, investigadora del Centro de Seguridad y Tecnología Emergente de Georgetown y ex miembro de la junta directiva de OpenAI, dijera en una entrevista que la junta se enteró del lanzamiento de ChatGPT a través de Twitter y que Altman había en múltiples ocasiones le dieron a la junta información inexacta sobre los procesos formales de seguridad de la empresa. También ha argumentado que es una mala idea dejar que las empresas de IA se gobiernen a sí mismas, porque los inmensos incentivos a las ganancias siempre ganarán. (Altman dijo que “no está de acuerdo con su recuerdo de los eventos”).

Cuando Thompson le preguntó a Altman cuál será el primer beneficio de la IA generativa, Altman mencionó la productividad y citó ejemplos como los desarrolladores de software que pueden usar herramientas de IA para hacer su trabajo mucho más rápido. “Veremos diferentes industrias volverse mucho más productivas de lo que solían ser porque pueden utilizar estas herramientas. Y eso repercutirá positivamente en todo”, afirmó. Creo que el jurado todavía está deliberando sobre eso.


Aprendizaje más profundo

Por qué las descripciones generales de IA de Google se equivocan