Zero
Zero
Diseñar en un mundo con inteligencia artificial 2/2
0:00
-50:48

Diseñar en un mundo con inteligencia artificial 2/2

Zero Ep 05
Foto por dogherine en Unsplash

“Una de las cosas más peligrosas de las soluciones basadas en las matemáticas y los datos es que los no expertos confían demasiado en ellas. No seas el tipo de persona que confía en la perfección en tareas complejas.”

Cassie Kozyrkov - Chief Decision Scientist en Google

Canon put AI cameras in its Chinese offices that only let smiling workers inside

Los trabajadores no están siendo sustituidos por algoritmos e inteligencia artificial. Por el contrario, la gestión está siendo en cierto modo aumentada por estas tecnologías [...] Las tecnologías están aumentando el ritmo de las personas que trabajan con las máquinas en lugar de al revés, al igual que lo que ocurrió durante la revolución industrial en el siglo XVIII

The Myth of a Superhuman AI

El concepto erróneo más común sobre la inteligencia artificial comienza con el concepto erróneo común sobre la inteligencia natural. Esta idea errónea es que la inteligencia es una sola dimensión. La mayoría de los técnicos tienden a graficar la inteligencia como lo hace Nick Bostrom en su libro Superinteligencia: como un gráfico literal, de una sola dimensión, lineal y de amplitud creciente.

…no existe una escala de inteligencia. La inteligencia no es una dimensión única. Es un complejo de muchos tipos y modos de cognición, cada uno de ellos un continuo.

Existential risk from AI: A skeptical perspective

Melanie cree que la inteligencia no puede separarse de la socialización. Podría decirse que los humanos evolucionaron gran parte de su inteligencia gracias a las presiones sociales, y el desarrollo de la inteligencia humana desde el nacimiento gira en torno a la interacción social. Dado que las IA se construirán en última instancia con el objetivo de aportar valor a los humanos, Melanie cree que también se "socializarán". En consecuencia, sostiene que los sistemas de IA verdaderamente inteligentes probablemente adquieran "sentido común" y "ética" como subproducto de su desarrollo, y por lo tanto es probable que sean seguros.

Prototyping AI ethics futures: Building capacity

Este panel presentará el mapa de la red JUST AI, seguido de un debate sobre las áreas y los puntos de interconexión potencial que están subdesarrollados o que faltan, especialmente desde las perspectivas de la justicia social, la inclusión, la gobernanza y el diseño - incluyendo por qué este trabajo es fundamental para el futuro del desarrollo de la IA ética.

Este panel sirve como catalizador de la semana de eventos, que están dirigidos por la cuestión de la creación de prototipos de futuros éticos de la IA. En el espacio de las humanidades y más allá, ¿cómo podemos crear un espacio interdisciplinario de compromiso entre las múltiples partes interesadas en el campo de los datos y la ética de la IA? ¿Cómo podemos utilizar los mapas de red para imaginar otras formas de compromiso?

Estado del arte de la ética y la inteligencia artificial.

La primera respuesta que puede venir a nuestra mente es la que aporta Chris Duffey, responsable de innovación y estrategia de Adobe: “La tecnología no es buena ni mala, es solo un reflejo de lo que los humanos han creado”. Parece simple. Es como decir que las armas no matan, son las personas quienes matan.

Los algoritmos que calculan quién va a reincidir discriminan a los negros (y no es fácil corregirlos)

El experimento comparó las evaluaciones de riesgo de más de 7.000 detenidos en un condado de Florida con la frecuencia con la que realmente reincidieron o no después. Sus conclusiones fueron demoledoras: la tasa de acierto del sistema era similar independientemente de si se aplicaba sobre una persona blanca o negra, pero los fallos penalizaban más a los negros, que tenían casi el doble de posibilidades que los blancos de ser clasificados erróneamente como potenciales reincidentes.

Injusticia algorítmica

Y aquí es donde aparece el problema. Un programa tradicional, desarrollado por un humano, sigue una lógica, con lo que es posible entender qué está haciendo ese programa. Un algoritmo automatizado es como una caja negra. Le damos una entrada (los datos de la persona que pide el crédito) y nos da una salida (la probabilidad de que devuelva o no el crédito). Es muy complejo ─o prácticamente imposible─ saber por qué el programa ha decidido rechazar o aceptar un crédito.

…Al no estar basados esos algoritmos en un conocimiento propiamente dicho del entorno, sino en establecer regularidades contextuales, basadas en un número finito de datos, ningún algoritmo considerará reactivar el automóvil de Mary Bollender para que pueda llevar a su hija al médico. Es un algoritmo que solo sabe quién ha pagado las cuotas y quién no. En un barrio con un alto nivel de pobreza, la tasa de morosidad es mucho más elevada. Un tanto por ciento elevado de madres solteras tienden a retrasarse en los pagos de hipotecas y préstamos. Un algoritmo automatizado sin duda denegaría un préstamo a una madre soltera de ese barrio empobrecido. La decisión sería sin duda estadísticamente correcta. Pero, ¿sería justa? ¿Queremos vivir en un mundo en el que decisiones relevantes para nuestra vida se basen en regularidades estadísticas dependientes del contexto?


Referencias escuchadas en el podcast y otros recursos:

  • Framework de trabajo con AI de Google
    https://pair.withgoogle.com/

  • https://www.microsoft.com/en-us/research/project/guidelines-for-human-ai-interaction/

  • https://www.ibm.com/thought-leadership/institute-business-value/report/ai-ethics

  • https://www.gov.uk/government/news/uk-government-publishes-pioneering-standard-for-algorithmic-transparency

  • https://ec.europa.eu/commission/presscorner/detail/es/ip_21_1682

  • https://elpais-com.cdn.ampproject.org/c/s/elpais.com/tecnologia/2021-11-25/la-unesco-saca-adelante-la-declaracion-universal-de-la-inteligencia-artificial.html?outputType=amp

  • https://portal.mineco.gob.es/es-es/digitalizacionIA/Paginas/sedia.aspx

  • Curso gratuito sobre AI
    https://www.elementsofai.com/es/

Zero
Zero
Un podcast que acompaña una newsletter donde hablamos de diseño desde lo humano, los márgenes, lo difuso y lo diferente.