Pensar en las personas antes de diseñar y crear
Desde hace tiempo, más y más especialistas prestan atención a la manera en la que nos vinculamos con la tecnología. La interacción entre humanos, sistemas y artefactos es pensada desde su diseño y testeada con el objetivo de hallar características que permitan entender mejor a los usuarios y facilitarles la vida.

Hoy es impensable trabajar en la industria del software o de los dispositivos sin tener un departamento a cargo de la UX (user experience -en inglés-, o experiencia del usuario) y la UI (user interface o interfaz del usuario) para entender y guiar al consumidor mientras utiliza un producto.

Siempre hubo un interés en el diseño por adaptarse a sus destinatarios. En informática y tecnología digital la revolución llegó a comienzos de la década del 80. Computadoras personales y sistemas operativos introdujeron herramientas y ensayos. Aparecieron términos como “escritorio” y “ventana” mientras se perfeccionaron accesorios periféricos como los teclados, el mouse o los trackpads.

La aparición de los íconos y movimientos como el click o el arrastre dentro de la pantalla mejoraron la experiencia y extendieron el uso de las computadoras a nuevos usuarios.

Las pantallas de las computadoras mejoraron, los procesadores se volvieron más veloces y aparecieron nuevos dispositivos, tablets y teléfonos inteligentes. También nuevas formas en las que los usuarios podían interactuar con sus dispositivos, programas y aplicaciones.

Pantallas táctiles, cámaras con Realidad Aumentada y la capacidad para procesar el lenguaje natural con la voz humana abrieron un abanico con muchas más chances de interacción.

La mejor interfaz es aquella “que desaparece” y se integra de manera tan profunda en nuestra vida cotidiana que nunca está en primer plano. Las tecnologías más significativas son las que no se distinguen.

A medida que se perfeccionen las formas de interacción, se volverá más difícil separar la interfaz del producto. En la actualidad, los comandos de grifería más comunes en las casas no necesitan una explicación para ser usados: simplemente sabemos cómo usarlos.

Aunque existen numerosos modelos y opciones, no se requieren instrucciones para lograr nuestro objetivo, ya sea bañarnos con la temperatura deseada, lavarnos las manos o cocinar. Cuando sabemos intuitivamente cómo reaccionar, lo consolidamos.

La tecnología seguirá teniendo un rol central dentro de cien años pero es posible que no sea tal como es ahora. Es interesante imaginar lo que sucederá en 2121 para entender lo mejor de nuestro presente y lo que puede ser mejorado.

El futuro de las interfaces será más integrado, invisible y personal. Tocará replantearse cómo se crea la tecnología desde el momento mismo de la idea de un producto o servicio.

 

Nuestro hogar, nuestro reino
Las interfaces son exitosas cuando podemos interactuar con libertad. Por eso los dispositivos deben ser pensados para poder ser utilizados sin interponerse en la rutina cotidiana de los habitantes de la casa. Será deseable que la totalidad de la aparatología esté centralizada en alguna plataforma.

La “tecnología inteligente” actual prefiere estar en primer plano, mientras que nuestra preferencia por la “tecnología sabia” impone que todo ocurra en la periferia y sin interrumpir a nadie. En nuestras próximas casas, cualquier superficie podrá ser una interfaz táctil inteligente, desde una mesa hasta una pared, sin necesidad de botones ni pantallas.

Muchos de los sistemas automatizados deberán registrar patrones de conducta, aprenderlos e incluso predecirlos. Como persianas y cortinas de una casa que suelen levantarse y cerrarse en horarios acordes a la época y luz del año. “La casa del futuro va a tener relación directa entre máquinas y comportamientos”, asegura el arquitecto Emiliano Espasandin.

Las máquinas van a entender el comportamiento

Emiliano EspasandinArquitecto

Lo mismo con la temperatura del agua en la ducha o con ciertos preparados necesarios para el menú de la cena: la mejor interfaz posible será la que tome por nosotros aquellas decisiones en las que solemos reincidir.

Así, más allá de la forma final que tome la UX y la UI en el próximo siglo, su importancia se mantendrá. La tecnología tendrá que estar centrada en los seres humanos y deberá adaptarse a nosotros.

 

Cuatro dimensiones para realizar lo que queramos
Las pantallas irán perdiendo preeminencia en el futuro. Los botones y superficies táctiles fueron pensados en dos dimensiones, con diseños limitados. Sentimos que es necesario pensar en tres dimensiones o incluso en cuatro.

La obligatoriedad de tocar físicamente las superficies no existiría más. Será todo interfaces basadas en movimientos, con dispositivos que reconozcan nuestros gestos mediante cámaras, sensores y algoritmos. Integrar el mundo digital y el físico.

“En el hogar del futuro creo que los artefactos serán automatizados. Con dispositivos que se pondrán en funcionamiento sin tocarlos”, adelanta Juan Cavallero, diseñador de FV. “Aunque no me imagino artefactos manejados con la mente, sería muy de avanzada para el ser humano tener un  pensamiento único y no pensar en otra cosa mientras abre una canilla”, aclara.

Los dispositivos se pondrán en funcionamiento sin tocarlos

Juan Cavallerodiseñador de FV

En el futuro serán comunes las interfaces basadas en movimientos, con dispositivos que reconozcan nuestros gestos. Será normal ver a personas darle instrucciones a alguna plataforma o aparato de esta manera.

También la realidad aumentada es una tendencia en alza. Se trata de la posibilidad de integrar el mundo digital y el mundo físico a la perfección. En cien años es probable que toda interacción con un entorno digital se sienta como si fuese en el mundo analógico.

 

Tecnología que nos da voz, con las emociones en el centro de escena
Si bien durante años el tacto fue el sentido privilegiado a la hora de interactuar con la tecnología, la voz ha crecido como una alternativa llena de posibilidades.

Los algoritmos de aprendizaje automatizado nos dan más chances para dialogar con nuestros dispositivos y, de hecho, el estudio de FV para entender cómo se imaginaban en el futuro los habitantes de la Argentina mostró que más de un 70% confía en que las interacciones digitales por medio de la voz serán frecuentes en los hogares.

La tendencia actual es interactuar con los productos a partir de nuestra voz y el lenguaje natural. No es alocado pensar que en cien años podrán comprender nuestro discurso coloquial de manera totalmente clara.

La capacidad de detectar los movimientos de nuestro rostro, las inflexiones de nuestra voz y crear perfiles personales facilitan que, en el futuro, las interfaces puedan reconocer nuestras emociones, estados de ánimo y responder mejor a nuestros comandos.

El vínculo entre UX y UI con las emociones es profundo. Los seres humanos elegimos ciertos productos y tenemos ciertas conductas por cómo pensamos que nos harán sentir.

Nuestro lenguaje corporal será leído sin problemas por los próximos algoritmos, para evaluar cómo nos sentimos y cambiar la temperatura de la ducha o hacer sonar una canción optimista o una melancólica.

 

Hacia una nueva forma de telepatía
En el futuro existirán formas de interfaces cerebro-máquina, con un link directo y físico. Las ondas de nuestro cerebro serán analizadas y decodificadas por algún aparato exterior o incluso un implante y transformadas en una señal leíble.

El cerebro genera todo tipo de señales eléctricas con nuestros pensamientos y cada uno tiene su patrón de ondas cerebrales. Estas se pueden mapear para ejecutar comandos específicos de modo que el pensamiento se vuelva el establecido.

Algunos dispositivos ya pueden actuar a nuestra voluntad, prescindiendo incluso de los gestos o la voz. Así, la conexión sería completa y profunda, hasta volvernos casi telépatas.

Las conexiones cerebro-máquina parecen ser una buena opción fuera de la vida cotidiana, en el caso de ciertos trabajos que requieran. Por ejemplo, conducir a distancia.