Los investigadores de IA a menudo dicen que un buen aprendizaje automático es más un arte que una ciencia. Lo mismo podría decirse de las relaciones públicas eficaces. Seleccionar las palabras adecuadas para lograr un tono positivo o replantear la conversación sobre la IA es una tarea delicada: si se hace bien, se puede fortalecer la imagen de marca, pero si se hace mal, se puede desencadenar una reacción aún mayor. Los gigantes de la tecnología lo sabrían. En los últimos años, han tenido que aprender este arte rápidamente, ya que se han enfrentado a una creciente desconfianza pública en sus acciones y a una creciente crítica sobre sus investigaciones y tecnologías de IA. Ahora han desarrollado un nuevo vocabulario para usar cuando quieran asegurar al público que se preocupan profundamente por desarrollar la IA de manera responsable, pero quieren asegurarse de que no inviten a un escrutinio excesivo. Aquí hay una guía de información privilegiada para decodificar su lenguaje y desafiar las suposiciones y valores incorporados. rendición de cuentas (n): el acto de responsabilizar a otra persona por las consecuencias cuando falla su sistema de inteligencia artificial. exactitud (n) - Corrección técnica. La medida de éxito más importante en la evaluación del rendimiento de un modelo de IA. Ver validación . adversary (n): un ingeniero solitario capaz de interrumpir su potente sistema de inteligencia artificial que genera ingresos. Ver robustez , seguridad . alineación (n): el desafío de diseñar sistemas de inteligencia artificial que hagan lo que les decimos y valoren lo que valoramos. Adrede abstracto. Evite el uso de ejemplos reales de consecuencias no deseadas dañinas. Ver seguridad . inteligencia general artificial (frase): un dios hipotético de la inteligencia artificial que probablemente esté muy lejos en el futuro, pero también tal vez sea inminente. Puede ser realmente bueno o realmente malo, lo que sea más útil retóricamente. Obviamente estás construyendo el bueno. Que es caro. Por tanto, necesitas más dinero. Consulte los riesgos a largo plazo . audit (n): revisión de su empresa o sistema de inteligencia artificial que le paga a otra persona para que parezca más transparente sin necesidad de cambiar nada. Ver evaluación de impacto . augment (v) - Para aumentar la productividad de los trabajadores de cuello blanco. Efecto secundario: automatizar los trabajos manuales. Triste pero inevitable. BENEFICIOSO (adj.): descriptor general de lo que está intentando construir. Convenientemente mal definido. Ver valor . por diseño (ph): como en "justicia por diseño" o "responsabilidad por diseño". Una frase para indicar que estás pensando mucho en cosas importantes desde el principio. cumplimiento (n) - El acto de seguir la ley. Todo lo que no sea ilegal, vale. etiquetadoras de datos (ph): las personas que supuestamente existen detrás de la interfaz Mechanical Turk de Amazon para realizar trabajos de limpieza de datos por poco dinero. No estoy seguro de quiénes son. Nunca los conocí. democratizar (v) - Escalar una tecnología a toda costa. Una justificación para concentrar recursos. Ver escala . diversidad, equidad e inclusión (ph): el acto de contratar ingenieros e investigadores de grupos marginados para que pueda mostrarlos al público. Si desafían el status quo, despídalos . eficiencia (n): el uso de menos datos, memoria, personal o energía para construir un sistema de inteligencia artificial. junta de ética (ph): un grupo de asesores sin poder real, convocados para crear la apariencia de que su empresa está escuchando activamente. Ejemplos: la junta de ética de inteligencia artificial de Google (cancelada), la junta de supervisión de Facebook (aún en pie). principios éticos (ph): conjunto de obviedades que se utilizan para señalar sus buenas intenciones. Mantenlo en un nivel alto. Cuanto más vago sea el lenguaje, mejor. Ver IA responsable . explicable (adj): para describir un sistema de inteligencia artificial que usted, el desarrollador y el usuario pueden comprender. Mucho más difícil de lograr para las personas en las que se usa. Probablemente no valga la pena el esfuerzo. Ver interpretable . equidad (n): una noción complicada de imparcialidad que se utiliza para describir algoritmos no sesgados. Puede definirse de muchas formas según sus preferencias. para bien (ph): como en "IA para bien" o " datos para bien ". Una iniciativa completamente tangencial a su negocio principal que le ayuda a generar una buena publicidad. previsión (n) - La capacidad de mirar hacia el futuro. Básicamente imposible: por lo tanto, una explicación perfectamente razonable de por qué no puede librar a su sistema de inteligencia artificial de consecuencias no deseadas. marco (n): conjunto de pautas para la toma de decisiones. Una buena manera de parecer reflexivo y mesurado mientras retrasa la toma de decisiones real. generalizable (adj): el signo de un buen modelo de IA. Uno que sigue funcionando en condiciones cambiantes. Ver el mundo real . gobernanza (n) - Burocracia. diseño centrado en el ser humano (ph): un proceso que implica el uso de "personas" para imaginar lo que un usuario promedio podría desear de su sistema de inteligencia artificial. Puede implicar solicitar comentarios de usuarios reales. Solo si hay tiempo. Ver interesados . human in the loop (ph): cualquier persona que forme parte de un sistema de inteligencia artificial. Las responsabilidades van desde falsificar las capacidades del sistema hasta evitar acusaciones de automatización. Evaluación de impacto (ph): una revisión que usted mismo hace de su empresa o sistema de inteligencia artificial para mostrar su voluntad de considerar sus desventajas sin cambiar nada. Ver auditoría . interpretable (adj): descripción de un sistema de inteligencia artificial cuyo cálculo usted, el desarrollador, puede seguir paso a paso para comprender cómo llegó a su respuesta. En realidad, probablemente solo una regresión lineal. La IA suena mejor. Integridad (n): problemas que socavan el rendimiento técnico de su modelo o la capacidad de escala de su empresa. No confundir con temas que perjudican a la sociedad. No confundir con honestidad. interdisciplinario (adj) - Término utilizado para cualquier equipo o proyecto que involucre a personas que no codifican: investigadores de usuarios, gerentes de producto, filósofos morales. Especialmente los filósofos morales. Riesgos a largo plazo (n): cosas malas que podrían tener efectos catastróficos en un futuro lejano. Probablemente nunca sucederá, pero es más importante estudiar y evitar que los daños inmediatos de los sistemas de IA existentes. partners (n): otros grupos de élite que comparten su visión del mundo y pueden trabajar con usted para mantener el status quo. Ver interesados . compensación de privacidad (ph): el noble sacrificio del control individual sobre la información personal por beneficios grupales como los avances en el cuidado de la salud impulsados por la inteligencia artificial, que también resultan ser altamente rentables. progreso (n) - Avance científico y tecnológico. Un bien inherente. mundo real (ph): lo opuesto al mundo simulado. Un entorno físico dinámico lleno de sorpresas inesperadas para las que los modelos de IA están entrenados para sobrevivir. No confundir con los humanos y la sociedad. regulación (n) - Lo que pides para transferir la responsabilidad de mitigar la IA dañina a los legisladores. No confundir con políticas que obstaculizarían su crecimiento. IA responsable (n): un apodo para cualquier trabajo en su empresa que el público podría interpretar como un esfuerzo sincero para mitigar los daños de sus sistemas de IA. Robustez (n): la capacidad de un modelo de IA para funcionar de manera consistente y precisa bajo intentos nefastos de alimentarlo con datos corruptos . seguridad (n): el desafío de construir sistemas de inteligencia artificial que no se desvíen de las intenciones del diseñador. No debe confundirse con la construcción de sistemas de inteligencia artificial que no fallan. Ver alineación . scale (n): el estado final de facto que cualquier buen sistema de inteligencia artificial debería esforzarse por lograr. seguridad (n): el acto de proteger datos valiosos o sensibles y modelos de inteligencia artificial para que no sean violados por malos actores. Ver adversario . stakeholders (n) - Accionistas, reguladores, usuarios. La gente en el poder que desea mantener feliz. transparencia (n) - Revelar sus datos y código. Malo para información confidencial y confidencial. Así que realmente difícil; francamente, incluso imposible. No debe confundirse con una comunicación clara sobre cómo funciona realmente su sistema. confiable (adj): evaluación de un sistema de inteligencia artificial que se puede fabricar con suficiente publicidad coordinada. Renta básica universal (ph): la idea de que pagar a todos un salario fijo resolverá la agitación económica masiva causada cuando la automatización conduce a la pérdida generalizada de empleos. Popularizado por el candidato presidencial de 2020 Andrew Yang. Ver redistribución de la riqueza . validación (n): el proceso de probar un modelo de IA en datos distintos de los datos en los que se entrenó, para verificar que aún sea preciso. value (n): un beneficio intangible que se brinda a sus usuarios y que genera una gran cantidad de dinero. valores (n) - Los tienes. Recuérdele a la gente. Redistribución de la riqueza (ph): una idea útil para dar vueltas cuando la gente te escudriña por usar demasiados recursos y ganar demasiado dinero. ¿Cómo funcionaría la redistribución de la riqueza? Renta básica universal, por supuesto. Tampoco es algo que puedas resolver tú mismo. Requeriría regulación. Ver reglamento . retener publicación (ph) - El acto benévolo de elegir no abrir su código porque podría caer en manos de un mal actor. Es mejor limitar el acceso a socios que puedan pagarlo.