• DataCiencia

Simposio del MIT sobre Inteligencia Artificial

Evento del MIT discutió las políticas para el uso de inteligencia artificial en varios segmentos. A continuación se presentan las noticias con los temas tratados y principales puntos presentados en el evento.




Explorando temas emergentes en la política de inteligencia artificial


El segundo Simposio del Foro de Políticas de IA convocó a las partes interesadas globales de todos los sectores para discutir cuestiones críticas de política en inteligencia artificial.


Los miembros del sector público, el sector privado y la academia se reunieron para el segundo Simposio del Foro de Políticas de IA el mes pasado para explorar direcciones críticas y preguntas planteadas por la inteligencia artificial en nuestras economías y sociedades.


El evento virtual, organizado por el AI Policy Forum (AIPF), un compromiso del MIT Schwarzman College of Computing para unir los principios de alto nivel de la política de IA con las prácticas y compensaciones del gobierno, reunió a una variedad de distinguidos panelistas para profundizar en cuatro temas transversales: derecho, auditoría, salud y movilidad.


En el último año ha habido cambios sustanciales en el panorama normativo y político en torno a la IA en varios países, sobre todo en Europa con el desarrollo de la Ley de Inteligencia Artificial de la Unión Europea, el primer intento de un regulador importante de proponer una ley sobre inteligencia artificial. . En los Estados Unidos, la Ley de Iniciativa Nacional de IA de 2020, que se convirtió en ley en enero de 2021, proporciona un programa coordinado en todo el gobierno federal para acelerar la investigación y aplicación de IA para la prosperidad económica y las ganancias de seguridad. Finalmente, China recientemente adelantó varias nuevas regulaciones propias.


Cada uno de estos desarrollos representa un enfoque diferente para legislar la IA, pero ¿qué hace que una ley de IA sea buena? ¿Y cuándo debería la legislación de IA basarse en reglas vinculantes con sanciones en lugar de establecer pautas voluntarias?


Jonathan Zittrain, profesor de derecho internacional en la Facultad de Derecho de Harvard y director del Centro Berkman Klein para Internet y la Sociedad, dice que el enfoque de autorregulación adoptado durante la expansión de Internet tuvo sus limitaciones, ya que las empresas luchaban por equilibrar sus intereses con los de sus clientes. la industria y el público.


“Una lección podría ser que tener un gobierno representativo que asuma un papel activo desde el principio es una buena idea”, dice. “Es solo que se ven desafiados por el hecho de que parece haber dos fases en este entorno de regulación. Uno, demasiado pronto para decirlo, y dos, demasiado tarde para hacer algo al respecto. En IA, creo que mucha gente diría que todavía estamos en la etapa "demasiado pronto para decirlo", pero dado que no hay una zona intermedia antes de que sea demasiado tarde, aún podría requerir alguna regulación".


Un tema que surgió repetidamente durante el primer panel sobre leyes de IA, una conversación moderada por Dan Huttenlocher, decano de la Facultad de Computación Schwarzman del MIT y presidente del Foro de Políticas de IA, fue la noción de confianza. “Si me dijeras la verdad constantemente, diría que eres una persona honesta. Si la IA pudiera proporcionar algo similar, algo que pueda decir que es consistente y es lo mismo, entonces diría que es una IA confiable”, dice Bitange Ndemo, profesor de emprendimiento en la Universidad de Nairobi y exsecretario permanente del Ministerio de Información de Kenia. y comunicación.


Eva Kaili, vicepresidenta del Parlamento Europeo, añade que “En Europa, siempre que usas algo, como cualquier medicamento, sabes que ha sido comprobado. Sabes que puedes confiar en él. Sabes que los controles están ahí. Tenemos que lograr lo mismo con la IA”. Kalli enfatiza además que generar confianza en los sistemas de IA no solo llevará a las personas a usar más aplicaciones de manera segura, sino que la IA en sí misma obtendrá beneficios ya que como resultado se generarán mayores cantidades de datos.


El rápido aumento de la aplicabilidad de la IA en todos los campos ha provocado la necesidad de abordar tanto las oportunidades como los desafíos de las tecnologías emergentes y el impacto que tienen en cuestiones sociales y éticas como la privacidad, la equidad, el sesgo, la transparencia y la responsabilidad. En el cuidado de la salud, por ejemplo, las nuevas técnicas de aprendizaje automático se han mostrado muy prometedoras para mejorar la calidad y la eficiencia, pero las cuestiones de equidad, acceso y privacidad de datos, seguridad y confiabilidad, e inmunología y vigilancia de la salud global siguen sin resolverse.


Marzyeh Ghassemi del MIT, profesor asistente en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación y el Instituto de Ingeniería y Ciencias Médicas, y David Sontag, profesor asociado de ingeniería eléctrica y ciencias de la computación, colaboraron con Ziad Obermeyer, profesor asociado de políticas de salud. y gerencia en la Escuela de Salud Pública de la Universidad de California Berkeley, para organizar AIPF Health Wide Reach, una serie de sesiones para discutir temas de intercambio de datos y privacidad en la IA clínica. Los organizadores reunieron a expertos dedicados a la IA, las políticas y la salud de todo el mundo con el objetivo de comprender qué se puede hacer para disminuir las barreras de acceso a datos de salud de alta calidad para avanzar en resultados de investigación más innovadores, sólidos e inclusivos mientras se es respetuoso. de la privacidad del paciente.


En el transcurso de la serie, los miembros del grupo presentaron un tema de especialización y se les asignó la tarea de proponer enfoques de políticas concretas para el desafío discutido. Aprovechando estas amplias conversaciones, los participantes dieron a conocer sus hallazgos durante el simposio, cubriendo historias exitosas de organizaciones sin fines de lucro y gubernamentales y modelos de acceso limitado; demostraciones al alza; marcos legales, regulación y financiamiento; enfoques técnicos de la privacidad; e infraestructura y uso compartido de datos. Luego, el grupo discutió algunas de sus recomendaciones que se resumen en un informe que se publicará pronto.


Uno de los hallazgos llama a la necesidad de hacer más datos disponibles para el uso de la investigación. Las recomendaciones que se derivan de este hallazgo incluyen la actualización de las regulaciones para promover el intercambio de datos para permitir un acceso más fácil a los puertos seguros, como la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA) para la desidentificación, así como la expansión de los fondos para que las instituciones de salud privadas seleccionen conjuntos de datos. , Entre otros. Otro hallazgo, para eliminar las barreras a los datos para los investigadores, respalda una recomendación para disminuir los obstáculos a la investigación y el desarrollo de datos de salud creados por el gobierno federal. “Si se trata de datos que deberían ser accesibles porque están financiados por alguna entidad federal, deberíamos establecer fácilmente los pasos que serán parte de obtener acceso a eso para que sea un conjunto de oportunidades de investigación más inclusivo y equitativo para todos”. dice Ghassemi. El grupo también recomienda analizar detenidamente los principios éticos que rigen el intercambio de datos. Si bien ya se han propuesto muchos principios en torno a esto, Ghassemi dice que "obviamente, no se pueden satisfacer todas las palancas o botones a la vez, pero creemos que se trata de una compensación que es muy importante considerar inteligentemente".


Además de la ley y la atención médica, otras facetas de la política de IA exploradas durante el evento incluyeron la auditoría y el monitoreo de los sistemas de IA a escala, y el papel que desempeña la IA en la movilidad y la variedad de desafíos técnicos, comerciales y de políticas para los vehículos autónomos en particular.


El Simposio del Foro de Políticas de IA fue un esfuerzo por reunir comunidades de práctica con el objetivo compartido de diseñar el próximo capítulo de IA. En sus comentarios de clausura, Aleksander Madry, profesor de Computación de Cadence Designs Systems en el MIT y codirector de la facultad del AI Policy Forum, enfatizó la importancia de la colaboración y la necesidad de que las diferentes comunidades se comuniquen entre sí para realmente hacer una impacto en el espacio de políticas de IA.


“El sueño aquí es que todos podamos reunirnos (investigadores, industria, formuladores de políticas y otras partes interesadas) y realmente hablar entre nosotros, comprender las preocupaciones de los demás y pensar juntos en soluciones”, dijo Madry. “Esta es la misión del Foro de Políticas de IA y esto es lo que queremos habilitar”.



 

(fuente) Terri Park|MIT Schwarzman College of Computing

6 visualizaciones0 comentarios

Entradas Recientes

Ver todo