Los marcos éticos para la IA no son suficientes


MirageC/Getty Images

Bienestar ambiental. Agencia humana. Transparencia. Estos son sólo algunos de los principios mal definidos comúnmente enumerados en los marcos éticos para la inteligencia artificial (IA), cientos de los cuales ahora han sido liberados por organizaciones que van desde Google hasta el gobierno de Canadá hasta BMW. A medida que las organizaciones adoptan la IA con mayor velocidad, la adopción de estos principios se considera ampliamente como una de las mejores maneras de garantizar que la IA no cause daños no deseados.


¿El problema? Muchos marcos éticos de IA no se pueden implementar claramente en la práctica, ya que los investigadores han demostrada. Sin un aumento drástico en la especificidad de los marcos de IA existentes, simplemente no hay mucho personal técnico que pueda hacer para mantener claramente esa orientación de alto nivel. Y esto, a su vez, significa que si bien los marcos éticos de IA pueden crear buenas campañas de marketing, con demasiada frecuencia no evitan que la IA cause los mismos daños que están destinados a prevenir.


En ese sentido, las directrices éticas pueden plantear serios riesgos para las empresas que las adoptan, creando la falsa sensación de que las organizaciones han liberado su IA de riesgos cuando sus peligros son, de hecho, desenfrenados. Si las organizaciones piensan que el acto de redactar principios éticos de la IA es suficiente para garantizar que su IA es segura, deben pensarlo de nuevo.


Entonces, ¿qué pueden hacer las empresas para evitar que su IA cause daño?

La respuesta no radica en abandonar por completo los esfuerzos éticos de IA. En lugar de ello, las organizaciones deben asegurarse de que estos marcos también se desarrollen conjuntamente con una estrategia más amplia para la IA ética que se centre directamente en la implementación, con métricas concretas en el centro. Cada principio de IA que una organización adopte, es decir, también debe tener métricas claras que puedan ser medidas y monitoreadas por ingenieros, científicos de datos y personal legal.


Las organizaciones pueden comenzar con una admisión: Ponerse en serio acerca de la IA ética no es tarea fácil. La aplicación de los principios de la IA ética a entornos de implementación del mundo real requiere un tiempo y recursos significativos que abarcan departamentos legales, de ciencia de datos y riesgos y, en algunos casos, requiere experiencia externa. De hecho, dado que no existe un talle único para cuantificar los posibles daños creados por la IA, es probable que las métricas de IA ética varíen según las organizaciones, los casos de uso y las jurisdicciones reguladoras. Simplemente no existe la mejor manera de medir un principio como la transparencia o el bienestar de la IA. Pero eso no tiene por qué desalentar a las organizaciones que toman en serio la IA ética, que puede aprovechar una combinación de investigaciones existentes, precedentes legales y mejores prácticas técnicas.


En el ámbito de la equidad, por ejemplo, hay años de jurisprudencia en materia de crédito, vivienda y derecho laboral en los Estados Unidos que pueden servir de guía para medir la discriminación algorítmica, un tema que he previamente abordado. Es posible que las organizaciones deseen adoptar o modificar medidas como la relación de impacto adverso, el efecto marginal o la diferencia de medias estandarizadas, que se utilizan ampliamente para cuantificar la discriminación en entornos muy regulados de préstamos justos. El uso de estas o similares métricas para lograr la equidad permitirá a los científicos de datos comprender cuándo y cómo su IA está creando daños discriminatorios y actuar rápidamente cuando lo haga.


En el mundo de la privacidad, hay una serie de métricas que las organizaciones pueden adoptar para cuantificar las posibles violaciones de privacidad también. Si bien existen numerosos ejemplos de investigación sobre el tema ( este estudio es uno de mis favoritos), un conjunto de técnicas llamadas «tecnologías de mejora de la privacidad» puede ser uno de los mejores lugares para comenzar a aplicar principios relacionados con la privacidad. Métodos como privacidad diferencial, que tienen paquetes de código abierto que los científicos de datos pueden adoptar de forma original, se basan en la idea explícita de que la privacidad puede cuantificarse en grandes conjuntos de datos y han sido desplegados por muchos gigantes tecnológicos durante años. Investigación similar existe en el mundo de la IA interpretabilidad y seguridad , que se puede emparejar con una serie de principios de IA comúnmente adoptados como transparencia, robustez y más.


Todo esto significa que, a medida que las organizaciones se dedican al difícil trabajo de aplicar métricas relacionadas con la ética a su IA, no necesitan comenzar desde cero. Con métricas claras asociadas a sus marcos éticos, las organizaciones pueden entender con mayor facilidad cuándo se producen fallas éticas en su IA.


¿Hay inconvenientes en un mayor énfasis en el papel de las métricas en la IA ética? Seguramente. Hay algunas facetas de la toma de decisiones algorítmicas que son difíciles, si no imposibles, de cuantificar. Esto significa que muchas implementaciones de IA probablemente tengan riesgos intangibles que requieren una revisión cuidadosa y crítica. En algunas circunstancias, hacer hincapié excesivamente en las métricas puede dar lugar a un riesgo pasado por alto en estas áreas. Además, se necesitan mucho más que métricas claras para garantizar que la IA no genera daños graves. Los mecanismos de rendición de cuentas, documentación, inventarios modelo y mucho más también deben formar parte importante de cualquier esfuerzo por implementar la IA de manera responsable.

Pero no proporcionar métricas claras para los daños a la IA, como ocurre con demasiada frecuencia en las organizaciones que implementan IA, genera confusión para el personal técnico y jurídico de primera línea, que requiere indicadores mensurables para comprender si su IA se está comportando mal y saber cómo responder cuando lo hace.

Y si bien la tarea de traducir los principios de IA en métricas concretas es a la vez un desafío intelectual y una gran cantidad de recursos, las organizaciones que adoptan IA no deben ser abrumadas. De hecho, no pueden permitirse el lujo de serlo. La alternativa al desafío que enfrentan, es decir, esperar para medir los daños de la IA hasta que después que ocurren - serán mucho más difíciles y costosos para sus consumidores, su reputación y sus resultados finales.


En última instancia, la pregunta no es si Los daños de IA deben medirse, pero cuando. Si las organizaciones esperan demasiado tiempo para cuantificar los daños que su IA puede causar, los tribunales empezarán a hacerlo por ellos.


Nota por Andrew Burt para Harvard Business Review. Disponible en: https://hbr.org/2020/11/ethical-frameworks-for-ai-arent-enough?language=es

152 views0 comments

Suscribe to our newsletter

  • Facebook
  • Twitter

Contact: a.abella@unesco.org - Agustín Abella