¿Es UX/UI el próximo Blockbuster?

“El 47% de los empleos será reemplazado por robots o computadoras inteligentes para 2033”(1), así decía la contratapa del libro que descubrí mientras recorría una librería. Obviamente con esa bajada lo tuve que comprar.

UX Charlie
10 min readNov 28, 2022

--

Obviamente con esa bajada lo tuve que comprar. En ¡Sálvese quien pueda! El futuro del trabajo en la era de la automatización, el periodista Andrés Oppenheimer toma de base el trabajo de dos investigadores de la Universidad de Oxford(2). Hace una investigación más profunda con entrevistas a distintas personas que están en la frontera de la inteligencia artificial, aprendizaje automático y la robótica.

El planteo del libro me llevó a pensar mucho en dos tópicos. Primero cómo yo aporto al cumplimiento de ese porcentaje, ya que trabajo en tecnología, y en los últimos años siendo parte e impulsando la transformación en distintas empresas. Por otro lado, cómo podría afectarme a mí y a mi trabajo la automatización. Así nace mi teoría de que UX/UI puede ser el próximo blockbuster.

Este es un tema que genera mucho debate, y el debate es bueno para hacer madurar nuestra disciplina. Me gustaría conocer tus opiniones.

  • ¿Creés que una IA puede reemplazar nuestro trabajo?
  • ¿Cómo pueden verse afectados los equipos de UX y producto?

La IA no pueden hacer trabajos muy complejos

Sí pueden. Entre muchos ejemplos el libro trae muchos ejemplos. Dentro de los más conocidos está el proyecto de vehículo autónomo de Google en 2009(5). Hoy consolidado como Waymo One una app para uso público donde podés pedir que un auto te pase a buscar y que te lleve a dónde quieras. Además Waymo Via lleva paquetes o mercancías, ya no en autos sino en camiones, sí camiones de los grandes los que vienen con acoplado. Todo sin una persona al mando.

El auto de Waymo con todos sus sensores. https://waymo.com

¿Acaso existe una tarea más compleja desde el punto de vista físico y cognitivo que conducir? Hay que tener el cerebro trabajando para calcular velocidad, distancia, señales de tránsito, peatones, deformaciones en la calles, otros autos y muchas variantes más.

Como dicen en su página “ Waymo Driver no se embriaga, cansa ni distrae”. Además, acá es donde está la mayor ventaja, los autos de Waymo tienen un sistema que recopila el aprendizaje de cada auto y lo comparte con los demás. Su visión con cámaras y sensores 3D en los 360 grados del auto no dejan puntos ciegos al manejar, y por si fuera poco cuenta con procesamiento de información mucho mayor al de una persona.

La inteligencia artificial general o AGI (Artificial General Intelligence) conecta múltiples y diversos sistemas para resolver cualquier tipo de problema, en muchos casos sin entrenamiento previo. Esto puede ir desde cosas muy mundanas como una IA que con una cámara y uno solo brazo robótico pueda resolver el cubo Rubik(3), hasta una IA llamada AlphaFold(4), que por medio del deep learning logró resolver un problema hiper complejo como el plegamiento de proteínas y obviamente manejar un auto.

La IA no pueden empatizar, entender o generar sentimientos

Sí pueden. Dentro de las distintas áreas que trabajan con IA existe la inteligencia emocional artificial. Una IEA puede, por ejemplo, reconocer o predecir el estado de ánimo según las expresiones faciales, la postura del cuerpo o el tono de voz, entender qué le sucede y actuar en consecuencia. Hoy ya tenemos iniciativas que utilizan sensores de actividad física e inteligencia artificial para detectar la depresión con un 80% de precisión (6).

Si vieron la peli de Disney, Ligthyear, tienen que identificar a Sox, el hiperrealista gatito robot que está programado para interactuar y ayudar a Buzz con lo que necesite. En un momento Sox le dice a Buzz.

  • Sox: hablemos de tus sentimientos, soy muy bueno escuchando.
  • Buzz: No. Escucha, hoy fue un día muy largo. Las cosas no salieron bien.
  • Sox: ¿La misión no tuvo éxito?
  • Buzz: Afirmativo
  • Sox: Oh, no. Lamento mucho oír eso.

En ese momento la cara de Buzz cambia, mira al gatito como si realmente sintiera que generaron rapport, sintonía psicológica y emocional.

Buzz junto a Sox, el gatito robot de compañía

Google tiene un proyecto llamado LaMDA que hace poco generó mucho ruido. LaMDA es un tipo de inteligencia artificial que nos interpreta el lenguaje humano y funciona como un árbol de decisiones. LaMDA utiliza toda la información en texto que Google puede absorber y procesar con redes neuronales. Vos podés hablar, escribirle, a LaMDA y tener una conversación muy real.

El algoritmo aprendió tan bien que engañó al desarrollador encargado de hacer pruebas de calidad y de ética sobre la IA, el cual publicó conversaciones privadas(7) diciendo que la misma estaba viva, tenía conciencia y sintiencia. Obviamente LaMDA no tiene sentimientos ni está viva, pero logró aprender a empatizar tan bien que en sus conversaciones pudo hacer que una persona experta crea que sí lo estaba.

No digo que las IEA tengan emociones, porque no las tienen. El que el ser humano tenga emociones es resultado de nuestra propia evolución, pero las IEA pueden entenderlas y aprender a actuar según la necesidad de cada emoción.

La IA no pueden hacer trabajo creativo

Sí pueden. El banco neerlandés ING, pionero en uso de IA para el sistema bancario llevó la tecnología a otro nivel. En su proyecto llamado “The Next Rembrandt” (8) se propuso crear una nueva pintura del maestro del barroco utilizando la tecnología disponible en el siglo 21.

Comenzaron por digitalizar en alta resolución más de 340 pinturas de Rembrandt que llegaron hasta nuestros días. Más de 150 gigas de imágenes fueron renderizadas y analizadas por una IA pixel a pixel para lograr determinar estilos, trazos, temas, personas, ropas, entre otras. Generaron un modelo que permite entender las relaciones de distancia entre los ojos, los tamaños de naríz, la distancia con la boca y muchas características más de una cara típica de Rembrandt.

Ph: The Next Rembrandt: bringing the Old Master back to life

Con toda esa información la IA pintó un nuevo cuadro que imprimieron en 3D, imitando la densidad o fluidez de cada trazo para que no sea una impresión plana, sino que como una pintura tenga relieve(9). Más de 300 después de su muerte, Rembrandt junto con una IA le dieron al mundo una nueva obra.

Dentro del mundo de la inteligencia artificial específica se encuentra el afamado DALL-E 2 (10), de la compañía OpenAI. Esta IA puede generar imágenes hiperrealistas únicas a partir de un set de palabras que las personas le den. Al igual que DALL-E 2 hay otra IA llamada Stable Diffusion (11) que tiene mejor resolución, genera imágenes que son libres de derecho, tiene imágenes de personas conocidas y además la podés entrenar con tus fotos para que aprenda quién sos y genere diseños con tu cara.

Video explicativo sobre DALL-E 2

Ambas IAs utilizan la visión artificial sumada con el procesamiento natural del lenguaje para desgranar pixel a pixel y letra a letra la gran cantidad de información que están procesando. Aprenden a encontrar la relación entre las imágenes y los textos que las describen. Con todo lo que entendieron, luego básicamente lo que hacen es copiar, transformar y combinar la información para generar algo nuevo, un set de imágenes que nunca existieron.

En nuestro mundo de UX

Viendo el poder de DALL-E o Stable Difussion no me resulta para nada extraño que en breve podamos entrenar una IA para que diseñe una interfaz o un sistema de diseño. Por poner solo un ejemplo, si entramos a Behance hacemos una búsqueda típica para inspirarnos y diseñar un dashboard de una app bancaria o revisamos la pantalla principal de varias apps de fintech o bancos vamos a ver ciertamente un patrón en esas pantallas.

Distintas apps fintech con layout similar

Eso está perfecto porque se diseña teniendo en cuenta los modelos mentales y expectativas de las personas con esos sitios, como dice la Ley de Jacob. Pero, teniendo en cuenta lo que vimos, qué tan complicado creés que sea que una IA analice miles o millones de sitios y encuentre esos mismos patrones, y que luego en base a tu sistema de diseño cree la interfaz.

Al igual que las herramientas de no-code, tenemos varios ejemplos de herramientas de no-design, que sacan del medio a la persona de diseño, Canva, Sketch Wow, Wix para webs y logos, y muchos más. Algunas herramientas más avanzadas como Remove.bg que usa IA para quitar el fondo de una imagen solo con subir la imagen, esperar unos segundo y luego descargarla.

Al igual que la edición de una fotografía o de un video se volvió algo muy accesible porque distintas redes como TikTok o Instagram bajaron la curva de aprendizaje y la vara se volvió más alcanzable, en diseño estamos pasando por lo mismo.

Sí, hoy está pasando

Uizard es una compañía que según su página web su misión es “democratizar el diseño para empoderar a los no diseñadores de todo el mundo a construir productos digitales e interactivos”. Para cumplir con su misión desarrolló varias herramientas que buscan facilitar el diseño de apps o sitios web.

El AI-powered wireframing transforma prototipos de papel en wireframes digitales simplemente subiendo la foto del prototipo. Esta idea también la desarrolló Airbnb(12) en 2017, siguiendo la filosofía de su líder de diseño, Ben Wilkins que dijo “el tiempo requerido para probar una idea debe ser cero” trabajaron para que una IA aprenda su sistema de diseño, aprenda de los bocetos y pueda hacer ese traspaso de papel a digital y de digital a código.

Muestra como de distintas imágenes se procesa en redes neuronales la información para luego generar un sistema de diseño
El flujo de trabajo de Uizard

Otra solución planteada por Uizard es la de generar un sistema de diseño(13) a partir de inteligencia artificial. La IA puede extraer colores, estilos (text size, border radius, padding, font weight, shadow, etc.) tipografías y componentes de cualquier captura de pantalla de una aplicación o de imágenes. Con un par de clics y en segundos extrae la información, la procesa y sobre un sistema de diseño de base genera los nuevos estilos.

No solo el diseño, también el contenido

Además Uizard te ayuda con los textos. Desde los mockups, que previamente transformaste de papel a digital, vas a poder escribir texto y tener la posibilidad de que el asistente de texto de Uizard te muestre variantes. Así que si estás falto de inspiración la IA interpreta y te da opciones para títulos, bajadas y calls to action.

GPT-3, de la misma compañía de DALL-E, es una inteligencia artificial específica que puede escribir noticias en base a una pequeña frase que pongas como inicio. De igual manera el diario The Washington Post, tiene a Heliograf un robot periodista que usa inteligencia artificial para escribir noticias breves sobre distintos temas como mercado financiero, deportes y política. Lanzado en 2016, solo en su primer año escribió más de 800 artículos.

Basado en GPT-3, ABtesting.ai utiliza la inteligencia artificial para crear, combinar y probar diferentes variaciones de títulos, bajadas, call to action e imágenes, para encontrar la mejor opción que se adapte a tus personas usuarias, con el fin de mejorar la convertion rate y reducir el costo de adquisición. Con la misma tecnología, la compañía Encharge.io creó un generador de Subjects (Asuntos) para emails que a partir de 3 simples preguntas genera muchas variantes creativas

¿Es UX/UI el próximo Blockbuster?

No lo sé, pero al igual que le pasó a Blockbuster tenemos señales que nos hablan de un cambio. Está en nosotros entender lo que está sucediendo y ver cómo podemos acomodarnos y sacar el mejor provecho de estas nuevas herramientas.

Si el diseño UI es valorado solamente como la forma y no como la función, si solo ven el valor de poner pixeles en una pantalla el futuro cercano no se ve prometedor. Por eso como profesionales tenemos que abrir nuestra mente y demostrar el valor más allá del pixel, como dice Sol Mesz “sin ROI no hay diseño”(14) pero si no sabemos medir el ROI del diseño, de la experiencia, de nuestros hallazgos jamás vamos a poder salir de pintar pantallas. Para seguir vigentes en la nueva era del diseño tenemos que salir de la tarea operativa de diseñar para ganarnos el espacio y demostrar el impacto de las decisiones de diseño en el negocio.

La capacidad que tienen las IA para entender, procesar y crear va a seguir cambiando el mundo en el que vivimos y seguro va a cambiar nuestra área de trabajo. Como decía el Indio Solari: El futuro llegó hace rato, todo un palo, ya lo ves.

Este es un tema que genera mucho debate, y el debate es bueno para hacer madurar nuestra disciplina. Me gustaría conocer tus opiniones.

  • ¿Creés que una IA puede reemplazar nuestro trabajo?
  • ¿Cómo pueden verse afectados los equipos de UX y producto?

Te leo en los comentarios.

Referencias

  1. ¡Sálvese quien pueda! El futuro del trabajo en la era de la automatización — Andrés Oppenheimer (2014)
  2. The Future of Employment: How susceptible are jobs to computerisation? — Carl Benedikt Frey and Michael A. Osborne (2013)
  3. Solving Rubik’s Cube with a Robot Hand: Uncut
  4. https://es.wikipedia.org/wiki/AlphaFold
  5. https://waymo.com/intl/es/
  6. Scientists are using fitness trackers and AI to detect depression with ‘80% accuracy’ — Camille Bello (2022)
  7. Is LaMDA Sentient? — an Interview — Blake Lemoine (2022)
  8. https://www.nextrembrandt.com
  9. Everything is a remix — Kirby Ferguson (2012)
  10. The Next Rembrandt: bringing the Old Master back to life
  11. https://openai.com/dall-e-2/
  12. https://stability.ai/blog/stable-diffusion-public-release
  13. Airbnb built an AI that turns design sketches into product source code — TNW
  14. Generating design systems using deep learning — Tony Beltramelli
  15. Sin ROI no hay diseño — Sol Mesz (2015)

--

--

UX Charlie

UX Product Lead en Santander Tecnología Argentina + Behavioral Designer. Podés conocerme más en: https://www.linkedin.com/in/carrenocj/