Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y atrasado) tiempo en el centro de atención, TechCrunch ha estado publicando un serie de entrevistas centrado en mujeres destacadas que han contribuido a la revolución de la IA. Publicaremos estos artículos a lo largo del año a medida que continúa el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Leer más perfiles aquí.
Sarah Myers West es directora general del instituto AI Now, un instituto de investigación estadounidense que estudia las implicaciones sociales de la IA y la investigación de políticas que abordan la concentración de poder en la industria tecnológica. Anteriormente se desempeñó como asesora principal sobre IA en la Comisión Federal de Comercio de EE. UU. y es científica investigadora visitante en la Universidad Northeastern, así como colaboradora de investigación en el Laboratorio de Ciudadanos y Tecnología de Cornell.
Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?
He pasado los últimos 15 años cuestionando el papel de las empresas tecnológicas como actores políticos poderosos a medida que emergían en las primeras líneas de la gobernanza internacional. Al principio de mi carrera, estuve en primera fila observando cómo las empresas tecnológicas estadounidenses aparecían en todo el mundo de maneras que cambiaron el panorama político (en el Sudeste Asiático, China, Medio Oriente y otros lugares) y escribí un libro que profundizaba en cómo la industria El lobby y la regulación dieron forma a los orígenes del modelo de negocio de vigilancia para Internet a pesar de las tecnologías que ofrecían alternativas. en teoría eso en práctica no logró materializarse.
En muchos momentos de mi carrera me he preguntado: “¿Por qué estamos atrapados en esta visión tan distópica del futuro?” La respuesta tiene poco que ver con la tecnología en sí y mucho con las políticas públicas y la comercialización.
Ese ha sido prácticamente mi proyecto desde entonces, tanto en mi carrera investigadora como ahora en mi trabajo político como codirector de AI Now. Si la IA es parte de la infraestructura de nuestra vida diaria, debemos examinar críticamente las instituciones que la producen y asegurarnos de que, como sociedad, haya suficiente fricción (ya sea a través de la regulación o de la organización) para garantizar que se satisfagan las necesidades del público. que se sirven al final del día, no los de las empresas de tecnología.
¿De qué trabajo estás más orgulloso en el campo de la IA?
Estoy realmente orgulloso del trabajo que hicimos en la FTC, que es la agencia del gobierno de EE. UU. que, entre otras cosas, está en la primera línea de la aplicación regulatoria de la inteligencia artificial. Me encantaba arremangarme y trabajar en casos. Pude utilizar mi formación metodológica como investigador para dedicarme al trabajo de investigación, ya que el conjunto de herramientas es esencialmente el mismo. Fue gratificante poder utilizar esas herramientas para hacer que el poder rinda cuentas directamente y ver que este trabajo tiene un impacto inmediato en el público, ya sea abordando cómo se utiliza la IA para devaluar a los trabajadores y hacer subir los precios o combatiendo el comportamiento anticompetitivo. de las grandes empresas tecnológicas.
Pudimos incorporar a un equipo fantástico de tecnólogos que trabajan en la Oficina de Política Científica y Tecnológica de la Casa Blanca, y ha sido emocionante ver que el trabajo preliminar que sentamos allí tiene relevancia inmediata con el surgimiento de la IA generativa y la importancia de la infraestructura en la nube. .
¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?
Lo primero y más importante es que las tecnologías de inteligencia artificial se utilizan ampliamente en contextos altamente sensibles (en hospitales, escuelas, fronteras, etc.), pero aún no se han probado ni validado de manera adecuada. Esta es una tecnología propensa a errores y sabemos por investigaciones independientes que esos errores no se distribuyen por igual; dañan desproporcionadamente a comunidades que durante mucho tiempo han sido las más afectadas por la discriminación. Deberíamos fijar un listón mucho, mucho más alto. Pero lo que más me preocupa es cómo instituciones poderosas están utilizando la IA (funcione o no) para justificar sus acciones, desde el uso de armamento contra civiles en Gaza hasta la privación de derechos de los trabajadores. Este es un problema no de tecnología, sino de discurso: cómo orientamos nuestra cultura en torno a la tecnología y la idea de que si la IA está involucrada, ciertas elecciones o comportamientos se vuelven más “objetivos” o de alguna manera se pasan por alto.
¿Cuál es la mejor manera de construir IA de manera responsable?
Siempre debemos partir de la pregunta: ¿Por qué construir IA? ¿Qué requiere el uso de inteligencia artificial? ¿Es la tecnología de IA adecuada para ese propósito? A veces la respuesta es construir. mejor, y en ese caso los desarrolladores deberían garantizar el cumplimiento de la ley, documentando y validando sólidamente sus sistemas y haciendo abierto y transparente lo que puedan, para que los investigadores independientes puedan hacer lo mismo. Pero otras veces la respuesta es no construir nada: no necesitamos más armas o tecnología de vigilancia “construidas responsablemente”. El uso final es importante para esta pregunta y es por donde debemos comenzar.