Ir al contenido
Ver todas las entradas

Orden ejecutiva sobre inteligencia artificial: Dando forma al futuro de la inteligencia artificial en EE. UU.

El uso generalizado de IA (Inteligencia Artificial), desde modelos de aprendizaje supervisado hasta la búsqueda de patrones en datos y ChatGPT, se ha infiltrado en la empresa, y el frenesí resultante culminó en un llamado directo a... Las tecnologías de IA serán reguladasReconociendo la tecnología cada vez más asertiva, transformadora y potencialmente riesgosa, la Orden Ejecutiva del presidente Joe Biden sobre el Desarrollo y Uso Seguro, Protegido y Confiable de la Inteligencia Artificial se convirtió en un nuevo hito en la estrategia de IA de Estados Unidos.

Vea BigID en acción

¿Qué es la Orden Ejecutiva sobre IA? Un vistazo

La orden ejecutiva del presidente Biden, emitida el 30 de octubre, marca varios años de esfuerzo por parte de la Casa Blanca para establecer límites a la IA y garantizar su adopción y desarrollo seguros. Aun así, Biden ha dejado claro que este es el primer paso en el desarrollo, la implementación y la regulación de la IA en EE. UU., ya que busca proteger a los consumidores, reducir los riesgos de la IA y mantenerse al día con el ritmo actual de innovación.

A continuación se presentan algunos aspectos notables de la orden ejecutiva sobre inteligencia artificial:

Protección de los derechos de privacidad y las libertades civiles

Un componente importante de la orden ejecutiva es la protección de los derechos de privacidad y las libertades civiles de los ciudadanos estadounidensesLa EO busca mitigar las preocupaciones y los riesgos de privacidad al garantizar que la recopilación y el procesamiento de datos sean seguros, protegidos y solo para fines legales.

La EO está diseñada para proteger a los ciudadanos estadounidenses al fomentar la aplicación continua de las leyes de protección al consumidor y brindar seguridad contra prejuicios, discriminación, actividades fraudulentas y otros daños potenciales derivados del uso, la interacción y la compra de productos de IA.

La Orden Ejecutiva también enfatizó la importancia de implementar políticas de IA que se alineen con el avance de la equidad y los derechos civiles. El Fiscal General colaborará con las agencias y departamentos federales para abordar posibles violaciones de los derechos civiles y la discriminación en el ámbito de la IA.

Estándares de gobernanza y protección de la IA

La sección 4.1(a) de la Orden Ejecutiva establece que Instituto Nacional de Estándares y Tecnología (NIST) y el Secretario de Comercio establecerá el estándar de la industria para sistemas de IA seguros y protegidos y permitirá a los desarrolladores de IA probar estos sistemas para encontrar vulnerabilidades.

La orden ejecutiva insta a diversas agencias y departamentos federales, desde educación hasta salud y seguridad nacional, a adherirse a los estándares y regulaciones técnicas globales para el uso y la supervisión adecuados de las tecnologías de IA. La orden incluye directrices adicionales sobre el uso responsable de la IA para proteger a la población estadounidense.

Privacidad y seguridad de datos

Según la Sección 9(b), el Secretario de Comercio debe desarrollar directrices para que las agencias midan la eficacia de las protecciones de "garantías de privacidad diferenciales". Las garantías de privacidad diferenciales se refieren a protecciones que reducen el uso, acceso y divulgación incorrectos de información personal. Esto requerirá que los responsables de la privacidad y seguridad de los datos dentro de una organización consideren revisar las directrices del Secretario de Comercio. Las directrices específicas se publicarán próximamente y se finalizarán en el plazo de un año a partir de la Orden Ejecutiva.

La Ley de Protección de la Defensa

Debido a su naturaleza específica, la orden invoca la Ley de Protección de la Defensa, que exige a las organizaciones notificar al gobierno sobre cualquier modelo de IA que pueda suponer una amenaza grave para la salud pública, la seguridad o la seguridad nacional. Las organizaciones deben proporcionar evaluaciones de riesgos al gobierno para garantizar que los modelos de IA cumplan con los umbrales y estándares técnicos necesarios para su cumplimiento.

El Departamento de Energía y Seguridad Nacional Evaluará la variedad de riesgos que podrían plantear los modelos de IA, incluyendo amenazas específicas como el terrorismo y la fabricación de armas de destrucción masiva (nucleares y biológicas). El DHS también deberá establecer una Junta de Seguridad de la IA para asesorar sobre el uso responsable de la IA en infraestructuras críticas.

Demostración

Falsificaciones profundas

Otra área central de preocupación para la IA es la proliferación de la capacidad de la IA para producir falsificaciones profundas, como texto, imágenes, sonidos y videos que son difíciles de distinguir del contenido creado por humanos. La preocupación ha aumentado en los últimos años, ya que se ha considerado que las "deep fakes" tienen el potencial de influir en las elecciones y defraudar a los consumidores.

La Sección 4.5(c) de la orden ejecutiva insta al Departamento de Comercio a reducir el riesgo de las falsificaciones profundas mediante el desarrollo y la implementación de mejores prácticas para detectar contenido generado por IA. La Orden Ejecutiva recomienda encarecidamente la marca de agua en el contenido generado por IA, como fotos y videos.

Apoyo a la fuerza laboral

La Sección 6(b) de la Orden Ejecutiva se centra principalmente en apoyar el trabajo en Estados Unidos y garantizar que la IA mejore la vida de los trabajadores y no vulnere sus derechos ni reduzca la satisfacción laboral general. El Secretario de Trabajo proporcionará a los empleadores directrices para mitigar los efectos perjudiciales de la IA en los empleados.

Mercado justo y crecimiento

La Orden Ejecutiva se centra en los mandatos de seguridad y protección, y también hace hincapié en el futuro, la innovación y el crecimiento tecnológico. La orden ejecutiva busca fortalecer la posición de Estados Unidos en el ámbito de la IA a nivel mundial mediante el fomento de la innovación y la colaboración. Estados Unidos mantendrá su ventaja competitiva con disposiciones que faciliten el desarrollo de la IA, incluyendo políticas que atraigan talento extranjero.

La Orden Ejecutiva podría necesitar mejoras

Parece haber un optimismo cauteloso después de que muchos legisladores, organizaciones de derechos civiles, grupos industriales y otros analizaran a fondo la orden ejecutiva de 111 páginas. Existe consenso en que la orden tiene limitaciones: es un paso positivo, pero es solo el comienzo.

A continuación se presentan algunas áreas que necesitan mejoras:

Justicia y sesgo de la IA

Existe un debate en curso sobre la imparcialidad y el sesgo de la IA. Muchas organizaciones de derechos civiles consideran que la orden no aborda con la suficiente profundidad los problemas reales derivados de los modelos de IA, especialmente en lo que respecta a las sanciones cuando los sistemas de IA afectan o perjudican a grupos vulnerables y marginados.

Entrenando a la IA para limitar el daño

Muchos coinciden con los valores de la orden ejecutiva en cuanto a privacidad, seguridad, confianza y protección. Sin embargo, es necesario prestar más atención a cómo se entrenan y desarrollan los modelos de IA, lo que debería minimizar los daños futuros antes de que se distribuya cualquier IA. Muchos piden al Congreso que apruebe leyes que integren protecciones que prioricen la equidad en lugar de abordar los posibles daños posteriores al desarrollo. Esta es una oportunidad para que el Congreso intensifique sus esfuerzos y cree estándares sólidos para la protección contra sesgos, riesgos y consumidores.

Innovación

Por otro lado, a muchos líderes de la industria les preocupa que la Orden Ejecutiva pueda frenar la innovación en muchos sectores en crecimiento. Los requisitos de presentación de informes para grandes modelos de IA son el núcleo de los problemas, ya que muchos consideran que supone una vigilancia excesiva de los sistemas abiertos de IA, lo que limitará la entrada de empresas tecnológicas al mercado. Esto pone de relieve la importante expansión del poder del gobierno federal sobre la innovación y el futuro del desarrollo de la IA.

Alcance limitado

La orden ejecutiva presenta algunas limitaciones para preservar la privacidad de los datos de los consumidores, principalmente debido a la necesidad de una ley federal de privacidad de datos. Además, dado que se centra en mejorar la administración gubernamental para la gobernanza de la IA, la Orden Ejecutiva no se aplica necesariamente al sector privado.

Cómo BigID puede ayudar a las organizaciones a cumplir con las nuevas y emergentes regulaciones de IA

La Orden Ejecutiva sobre IA constituye un paso significativo para aprovechar el potencial de la IA y abordar sus desafíos específicos. Refleja el compromiso del gobierno estadounidense de impulsar la innovación, el crecimiento económico y la seguridad nacional, garantizando al mismo tiempo un desarrollo e implementación responsables y éticos de la IA.

El futuro de la IA en Estados Unidos, determinado por esta orden ejecutiva, es muy prometedor para la sociedad. Aquí en BigIDEntendemos que la IA está destinada a impulsar la eficiencia, aumentar la innovación y permitir la automatización, pero eso comienza con adopción responsable, estándares éticos y adecuados Gobernanza de la IA.

IA generativa y LLM han traído consigo nuevos riesgos relacionados con grandes volúmenes de datos no estructurados, lo que provoca filtraciones de datos, infracciones e incumplimiento normativo. Las organizaciones que buscan innovar y acelerar la adopción de la IA necesitan saber si los datos entrenados por esta tecnología son seguros y se ajustan a las políticas y regulaciones empresariales.

BigID puede encontrar, catalogar y gestionar datos no estructurados para LLM e IA conversacional, lo cual es fundamental para una adopción segura y responsable de la IA. Con BigID, las organizaciones pueden gestionar, proteger y gestionar mejor la IA con protocolos de seguridad que reducen el riesgo. Habilitando la confianza cero, mitigar la amenaza del riesgo internoy Asegurar datos no estructurados en todo el panorama de datos.

Programe una demostración con nuestros expertos para ver cómo BigID puede ayudar a su organización a gobernar la IA y reducir el riesgo.

Contenido

Gobernanza de datos para IA conversacional y LLM

Descargar resumen de la solución