Zero
Zero
Diseñar en un mundo con inteligencia artificial 1/2
0:00
-43:29

Diseñar en un mundo con inteligencia artificial 1/2

Zero Ep 04

Hace más o menos 1 año y medio que empecé a aprender en serio sobre inteligencia artificial. Durante este tiempo me he dado cuenta de lo importante que es entender esta tecnología como personas que diseñan. Estas tecnologías aún están en fases tempranas en muchos sentidos y estamos lejos de una superinteligencia general o de seres humanoides con sentimientos complejos como lo que hemos visto en el cine y la literatura. Entonces, ¿Por qué deberíamos saber de inteligencia artificial y por qué es importante dentro del proceso de diseño?

En este nuevo paradigma entendemos que la tecnología cotidiana existe en un halo de relación con las personas. Ese halo permea todas las dimensiones humanas. Por ejemplo, modifica nuestra conducta, manipula el marco de decisiones, afecta a la forma en la que nos relacionamos con el mundo y con otras personas y coloniza nuestro futuro. 1

Si la tecnología tiene tanto impacto en nuestro presente y futuro, ¿Cómo no va a ser objeto de diseño? Como es tan difícil hablar de inteligencia artificial por la amplitud de temas que puede tocar y dado que ya existe mucho material hecho por diseñadores en el que se hablar un poco de estas tecnologías, nos hemos permitido hablar un poco de todo y hemos tocado algunos temas más desde el impacto emocional y psicológico de la inteligencia artificial.

Este episodio está dividido en 2 partes. Espera la segunda parte para dentro de 2 semanas ;)

Como siempre recuerda que esta newsletter es una unidad entre artículos + podcast y que ambos se complementan. Leer los artículos o al menos las citas que hemos extraído ayuda a meterse más en la conversación del episodio.

Si te gusta, comparte.


How Is AI-Centered Product Design Different?

Al diseñar para la IA, cuando se empatiza con los usuarios, también hay que pensar detenidamente en la futura colaboración entre la IA y el ser humano que se quiere crear, y en el futuro que se quiere ver. Cuando se definen los requisitos del proyecto, también hay que definir las capacidades de la IA que se espera aprovechar y saber si ya están lo suficientemente maduras como para utilizarlas. A la hora de idear, no basta con construir una herramienta que resuelva el caso de uso, hay que pensar en cómo la IA va a obtener los datos que necesita y a aprender con el tiempo. Y, por último, cuando empieces a desarrollar la idea, tendrás que dedicar tiempo a pensar en cómo minimizar los impactos negativos no deseados de esta herramienta que existe en el mundo, o las acciones de los malos actores que la utilizan.


The AI reliability paradox

Si un error es tan catastrófico que el fallo es intolerable, entonces no automatices la tarea y tampoco dejes que lo hagan trabajadores humanos. O, si hay algo en tu ética que dice que es más aceptable que el fallo provenga de un trabajador humano que de un trabajador de la máquina (el quid de muchos debates sobre los vehículos autónomos), entonces utiliza un enfoque humano en el bucle.


Should we be concerned that the decisions of AIs are inscrutable?

Esto nos obliga a reflexionar más profundamente sobre lo que significa que un sistema de decisión automatizado sea "fiable". Es natural pensar que un sistema de este tipo haría las recomendaciones "correctas", la mayoría de las veces. Pero, ¿y si no existiera la recomendación correcta? ¿Y si todo lo que pudiéramos esperar fuera sólo una forma correcta de llegar a una recomendación, una forma correcta de enfocar una serie de circunstancias? Se trata de una situación familiar en el derecho, la política y la ética. Aquí, los valores y marcos éticos que compiten entre sí a menudo producen conclusiones muy diferentes sobre el curso de acción adecuado. Rara vez hay resultados inequívocamente correctos; en cambio, sólo hay formas correctas de justificarlos. Esto hace que hablar de "fiabilidad" sea sospechoso. Para muchas de las aplicaciones de machine learning más controvertidas y con mayores consecuencias morales, saber que un sistema automatizado funciona correctamente sólo significa conocer y estar satisfecho con sus razones para decidir.


Las políticas de la tecnología-ficción

La industria tecnológica –mastodóntica, delirante y monopolista– también disemina sus ficciones. Del mismo modo que el monstruo de The Village, las ficciones corporativas expresan los deseos de los agentes en el poder y nos convencen para compartirlos: en el presente, nos ofrecen otros modos de gestión del tiempo, de afectar y dejarnos afectar, lo que consideramos o no trabajo y ocio, y concepciones de cercanía, comodidad, seguridad y eficiencia.

Estas ficciones no solo inciden en el ahora, sino que funcionan como un agente colonizador de nuestros imaginarios de futuro. Señalando lo que llegará, genera una inercia a la que se suman varios agentes (gobiernos, start-ups, universidades, distribuidores, agencias de comunicación, etc.) que movilizan sus recursos en el presente para hacer realidad ese deseo. La élite tecnocapitalista, a través de canales que en principio no son ficticios (revistas especializadas, prensa general, ensayos y artículos académicos), anticipan realidades que todavía no son pero que se hacen pasar por incuestionables.


El cerebro de China

Continúa en el siguiente episodio ;)


Referencias mencionadas en el podcast:

  • ELIZA, primer uso del procesamiento de lenguaje natural
    https://en.wikipedia.org/wiki/ELIZA

  • Behavioural Future Markets https://news.harvard.edu/gazette/story/2019/03/harvard-professor-says-surveillance-capitalism-is-undermining-democracy/

  • Neuroderechos
    https://www.eldiario.es/tecnologia/son-neuroderechos-gobierno-plantea-primera-vez-proteger-procesos-cerebrales-tecnologia-invasiva_1_6478246.html

  • Replika, asistente virtual que aprende de ti
    https://replika.ai/

1

La colonización de los futuros con narrativas de tecnología ficción https://lab.cccb.org/es/las-politicas-de-la-tecnologia-ficcion/

Zero
Zero
Un podcast que acompaña una newsletter donde hablamos de diseño desde lo humano, los márgenes, lo difuso y lo diferente.