A medida que el polvo se asienta sobre el presidente Biden Orden ejecutiva sobre inteligencia artificial (IA) En cuanto al desarrollo y uso seguro y confiable de la inteligencia artificial, muchas empresas se preguntan si esto aplica solo a las agencias federales o si también tiene implicaciones reales para ellas. De ser así, ¿qué pueden esperar en los próximos meses y cómo afectará esto a su adopción actual y prevista de la IA?
Entendiendo la Orden Ejecutiva sobre IA
La reciente Orden Ejecutiva sobre IA marca un paso significativo hacia la implementación ética de la IA. Esta directiva tiene como objetivo establecer directrices y estándares para el desarrollo, la implementación y la gobernanza de las tecnologías de IA. Como complemento a la Orden Ejecutiva sobre IA, la Memorándum sobre inteligencia artificial de la Oficina de Administración y Presupuesto (OMB) Proporciona a las agencias federales una guía detallada sobre la implementación de la IA. El Memorándum sobre IA, aún abierto a comentarios públicos, debe leerse junto con la Orden Ejecutiva. El Memorándum establece mandatos estrictos para las agencias federales al adoptar tecnologías de IA.
Estos mandatos adicionales en el Memorándum sobre IA incluyen:
- Gobernanza de la IA: Exigir la designación de directores de IA, juntas de gobernanza de IA e informes ampliados sobre riesgos y mitigaciones para su uso de tecnologías de IA.
- Impulsando la innovación responsable en IA: Promover la inversión en el uso de IA por parte de las agencias, desde una mejor infraestructura de IA hasta el desarrollo de la fuerza laboral.
- Gestión de riesgos derivados del uso de IA: Exigir la implementación de salvaguardas de IA para proteger contra sesgos y discriminación, definir usos de IA que se presume que impactan los derechos y la seguridad, y brindar recomendaciones para gestionar el riesgo en la adquisición federal de IA.

Implicaciones para las empresas
Las empresas pueden verse afectadas de diversas maneras, entre ellas:
- Empresas tecnológicas que desarrollan tecnología de IA de “doble uso” Deberá notificar al gobierno federal al entrenar estos modelos y compartir los resultados de todas las pruebas de seguridad. La autoridad presidencial en este caso se deriva de la Ley de Producción de Defensa, ya que el término "doble uso" se refiere a tecnologías con aplicaciones tanto civiles como militares.
- Contratistas federales que desarrollan o utilizan tecnologías de IA Es posible que deban cumplir con las nuevas normas y regulaciones establecidas por la Orden Ejecutiva. Esto podría incluir el cumplimiento de las directrices para el uso ético de la IA, la privacidad de datos, la ciberseguridad y la mitigación de sesgos. Es posible que se exija a los contratistas que realicen evaluaciones de impacto de sus sistemas de IA, en particular en lo que respecta a su impacto en la seguridad y los derechos.
- El Instituto Nacional de Estándares y Tecnología (NIST) Se le han asignado funciones y responsabilidades específicas relacionadas con el desarrollo e implementación de estándares para tecnologías de IA. Además de desarrollar estándares, el NIST también puede proporcionar orientación y mejores prácticas para la seguridad de la IA a diversas partes interesadas, como agencias federales, empresas del sector privado e instituciones académicas.
- Técnicas de preservación de la privacidad Se destacan en el llamado del Presidente al Congreso para una legislación que se extienda a todos los estadounidenses, con un enfoque particular en la protección de la información personal utilizada para entrenar sistemas de IA.
¿Qué deben hacer las empresas?
Si bien parece improbable que se implementen protecciones integrales de la privacidad a nivel federal en un futuro próximo, la Orden crea un marco que comienza a afectar de forma prescriptiva a las empresas que desarrollan ciertas tecnologías de IA o prestan servicios al gobierno federal. Las normas del NIST tienen un sólido historial de adopción por parte del sector privado y probablemente impactarán a este sector de forma más amplia. La Orden y el memorando de la OMB dejan claro que proteger a los estadounidenses de la parcialidad y el posible uso indebido de la información personal es un tema crucial.
Al adoptar tecnologías de IA, las empresas deben:
- Entender qué información sensible y personal Se está utilizando para entrenar tecnologías de IA.
- Siempre que sea posible, utilice datos sintéticos o anónimos en lugar de información personal.
- Se debe ejercer un mayor escrutinio al utilizar categorías “sensibles” de información personal que puedan inferir sesgo, como origen racial o étnico, creencias religiosas o filosóficas, afiliación sindical, salud y vida sexual u orientación sexual para entrenar modelos de IA.
- Proporcionar métodos claros que permitan a los usuarios optar por no permitir que sus datos se utilicen en modelos de IA y establecer mecanismos para hacer cumplir las reglas de consentimiento contra el uso de información personal.
Cómo puede ayudar BigID
IA y modelos de lenguaje grandes (LLM) Al igual que ChatGPT en particular, dependen en gran medida de datos no estructurados para fines de capacitación. BigID tiene la capacidad de identificar información personal y sensible al otro lado de fuentes de datos estructuradas y no estructuradas. La tecnología de correlación de BigID No solo encuentra información personal, sino también a las personas que la describen. Con BigID, las organizaciones pueden:
- Descubra información personal y confidencial en conjuntos de entrenamiento de IA.
- Identificar y etiquetar categorías específicas de información, incluida la información personal confidencial (SPI).
- Permitir que las personas opten por no participar y gestionen el consentimiento a través de un portal de autoservicio.
- Comprenda a las personas específicas cuyos datos se utilizan para el entrenamiento de IA.
Programe una demostración con nuestros expertos para ver cómo BigID puede ayudar a su organización a gobernar la IA y reducir el riesgo.