Tuve el gran placer de entregar el discurso de clausura en Responsive Day Out 3: The Final Breakpoint. Celebrada en Brighton, Reino Unido, el 19 de junio de 2015, la conferencia fue una reunión de diseñadores y desarrolladores que compartieron sus estrategias, técnicas y experiencias de flujo de trabajo con un diseño web sensible..
Esto es lo que tenía que decir.
Hoy ha brindado un recorrido increíble por el mundo del diseño responsivo. Hemos visto cómo nivelar nuestros flujos de trabajo y procesos. Hemos aprendido nuevas formas de mejorar la accesibilidad de nuestros productos. Hemos lidiado con las capacidades modernas de CSS y HTML que nos ayudan a adoptar los tamaños de visualización enormemente variables que giran y giran a nuestro alrededor..
Hemos explorado el futuro del código modular y la capacidad de los navegadores para trabajar sin conectividad de red. E incluso hemos emprendido un viaje hacia el posible futuro de donde podría ir la web..
Hemos recorrido un largo camino desde el artículo de Ethan, grillas fluidas, medios flexibles y consultas de medios. Esos tres principios sembraron una semilla que ha crecido y floreció a medida que hemos llegado a comprender mejor las implicaciones de la proliferación de dispositivos. Hemos visto que la web es capaz de ir a cualquier parte y hacer casi cualquier cosa..
Yo diría que "Diseño web responsivo" fue el primer artículo que realmente logró captar los conceptos que John Allsopp había discutido muchos años antes en "Un dao del diseño web" y los resumió en algo que la comunidad de diseño y desarrollo realmente podría hundir. sus dientes en Proporcionó un ejemplo concreto de la capacidad de la red para flexionarse y moldearse en la forma que fuera necesaria para asumir..
Fue la primera vez que muchos diseñadores aceptaron la idea de que la "experiencia" no era algo monolítico..
Claro, muchos de nosotros en la comunidad de estándares web habíamos estado hablando y hablando sobre el progreso progresivo. Y estábamos ganando conversos, pero el progreso fue lento. Ethan demostró, directa y sucintamente, cómo podría verse la mejora progresiva del diseño visual.
Proporcionar una experiencia idéntica para todos y cada uno de los seres humanos que intentan acceder a nuestros sitios sería imposible. Simplemente hay demasiados factores a considerar. Tenemos el tamaño de la pantalla, la densidad de la pantalla, la velocidad de la CPU, la cantidad de RAM, la disponibilidad del sensor, la disponibilidad de funciones, los métodos de interfaz ... respirar … Tipo de sistema operativo, versión del sistema operativo, tipo de navegador, versión de navegador, complementos instalados, velocidad de red, latencia de red, congestión de red, firewalls, proxies, enrutadores y probablemente una docena de otros factores que mi mente es incapaz de desplegar en medio del torbellino de consideraciones tecnicas.
Y eso ni siquiera lo tienen en cuenta nuestros usuarios..
Cuando se trata de las personas que necesitamos para que nuestro trabajo realmente importe, tenemos que considerar el nivel de alfabetización, la capacidad de lectura, el nivel de dominio, los conocimientos cognitivos como las discapacidades de aprendizaje y la dislexia, los problemas de déficit de atención, las distracciones ambientales, la visión, discapacidad auditiva, discapacidad motora, cuánto entienden cómo usar su dispositivo, cuánto entienden cómo usar su navegador, qué tan bien versados están en las convenciones web comunes, y un montón de otros "factores humanos".
Cada persona es diferente y todos llegan a la web con sus propias necesidades especiales. Algunos siempre están con ellos, ceguera por ejemplo. Otros son transitorios, como romperte el brazo con el ratón. Otros son puramente situacionales y dependen del dispositivo que esté utilizando en ese momento y de sus capacidades técnicas o limitaciones..
Tratar de idear una experiencia monolítica para que cada persona tenga en cada contexto que considere que cada factor sería imposible. Y, sin embargo, Sir Tim Berners-Lee tuvo una visión para una web que era capaz de ir a cualquier parte. Estaba loco?
La visión de Sir Tim para la web era que el contenido podía crearse una vez y accederse desde cualquier lugar. Las piezas dispares pero relacionadas de "hipermedia" dispersas en todo el mundo podrían conectarse entre sí a través de enlaces. Además, cualquier persona con capacidad para leer HTML podrá recuperarlos. Gratis.
En última instancia, Sir Tim previó la accesibilidad universal.
Para muchos de nosotros, asegurarnos de que nuestros sitios web sean accesibles es una idea de último momento. Hablamos de un buen juego cuando se trata de "centrado en el usuario" esto o aquello, pero a menudo tratamos la palabra "accesibilidad" como sinónimo de "lector de pantalla". Es mucho más que eso. "Accesibilidad" es sobre las personas. Las personas consumen contenido y usan las interfaces de muchas maneras diferentes, algunas similares y otras bastante diferentes a cómo lo hacemos.
Claro, las personas con discapacidades visuales a menudo usan un lector de pantalla para consumir contenido. Pero también pueden usar un dispositivo de retroalimentación táctil braille o una impresora braille. Probablemente también usen un teclado. O pueden usar una pantalla táctil en concierto con señales de audio. O incluso pueden usar una cámara para permitirles "leer" el contenido a través de OCR y de texto a voz. Y sí, la discapacidad visual afecta a un porcentaje decente de la población (especialmente a medida que envejecemos), pero es solo una parte del rompecabezas de la "accesibilidad".
El contraste entre el texto y el fondo es un factor importante para garantizar que el contenido se pueda leer en diferentes situaciones de iluminación. La elección del color es un problema de accesibilidad.
El lenguaje que utilizamos en nuestros sitios y en nuestras interfaces afecta directamente la facilidad con la que nuestros usuarios entienden lo que hacemos, los productos que ofrecemos y por qué es importante. También afecta la forma en que hacemos que nuestros usuarios se sientan acerca de sí mismos, su experiencia y nuestras empresas. El idioma es un problema de accesibilidad.
El tamaño de nuestras páginas web tiene un efecto directo en el tiempo que tardan en descargarse nuestras páginas, en el costo que les cuesta a nuestros clientes acceder a ellas, y (a veces) incluso si se puede acceder al contenido. El rendimiento es una preocupación de accesibilidad.
Podría seguir, pero estoy seguro de que entiendes el punto.
La accesibilidad consiste en proporcionar buenas experiencias para todos, independientemente de las capacidades físicas o mentales, el género, la raza o el idioma. Reconoce que todos tenemos necesidades especiales: limitaciones físicas, limitaciones de ancho de banda, limitaciones de dispositivos, que pueden requerir que experimentemos la misma interfaz de diferentes maneras..
Cuando visito un sitio web en mi teléfono, por ejemplo, estoy limitado visualmente por la resolución de mi pantalla (especialmente si estoy usando un navegador que fomenta el zoom) y tengo una capacidad limitada para interactuar con botones y enlaces porque estoy navegando con Las yemas de mis dedos, que son más grandes y mucho menos precisas que un cursor del mouse.
En una pantalla táctil, es posible que necesite que la experiencia sea un poco diferente, pero todavía necesito poder hacer lo que sea que vine al sitio para hacer. Necesito un experiencia, pero además necesito el apropiado experiencia.
Abrazar la realidad de que la experiencia no necesita ser solo una cosa nos ayudará a llegar a más personas con menos dolores de cabeza. La experiencia puede y debe ser elaborada como un continuo. Esta es una mejora progresiva: comenzamos con una experiencia de línea de base que funciona para contenido de todos, enlaces reales, controles de formularios de primera generación y formularios que realmente se envían al servidor. Luego construimos la experiencia desde allí..
¿Su navegador soporta controles de formulario HTML5? ¡Genial! Obtendrá un mejor teclado virtual cuando ingrese su dirección de correo electrónico. Puedes usar CSS? Genial, déjame hacer que esa experiencia de lectura sea mejor para ti. ¡Oh, puedes manejar las consultas de los medios! Permítame ajustar el diseño para que las longitudes de las líneas sean un poco más cómodas. Wow, tu navegador soporta Ajax ?! Aquí, permítame cargar algunos teasers para el contenido relacionado que podría encontrar interesante..
Imagínese sentado en un restaurante, solo para que el camarero le traiga un bistec de inmediato. Pero eres vegetariano. Preguntas si ofrecen algo que puedas comer y responden cortésmente: "Oh, lo siento, la carne es un requisito. ¿Por qué no solo comes carne? ¡Es fácil! Realmente te estás perdiendo algo de comida sabrosa". Ningún camarero que realmente se preocupe por tu experiencia haría eso.
Y aún así, como industria, parece que no tenemos ningún problema en decirle a alguien que necesita cambiar su navegador para acomodarnos. Eso está mal. Nuestro trabajo no tiene sentido sin los usuarios. Deberíamos estar inclinados hacia atrás para atraerlos y retenerlos. Este es el servicio al cliente 101.
Esto se remonta a la ley de Postel, que Jeremy a menudo cuenta:
Sé conservador en lo que haces, sé liberal en lo que aceptas de los demás..
Necesitamos estar relajados cuando se trata de la compatibilidad con el navegador y no hacer demasiadas (o mejor aún, ninguna) suposición sobre lo que podemos enviar.
Por supuesto, este no es un enfoque que todos en nuestra industria estén listos para adoptar, así que ofreceré otra cita a la que vuelvo una y otra vez ...
Cuando algo sucede, la única cosa en tu poder es tu actitud hacia él; Puedes aceptarlo o reenviarlo.
No podemos controlar el mundo, solo podemos controlar nuestra reacción ante él..
Ahora, aquellos de ustedes que se han reunido para este Final Responsive Day Out (o que están siguiendo en casa) probablemente entiendan esto más que la mayoría. Sentimos el constante bombardeo de nuevos dispositivos, tamaños de pantalla y capacidades. La única manera que he encontrado para lidiar con todo esto es aceptarlo, abrazar la diversidad y ver la proliferación de dispositivos y navegadores como una característica, no como un error..
Depende de nosotros educar a quienes nos rodean, ya sea por accidente o por intención, no aceptamos que la diversidad es la realidad en la que vivimos y que las cosas solo se volverán más locas. Enterrar nuestras cabezas en la arena no es una opción..
Cuando estoy tratando de ayudar a la gente a entender y aceptar la diversidad, a menudo busco uno de mis ejercicios de pensamiento favoritos de John Rawls.
Rawls fue un filósofo que solía realizar un experimento social con estudiantes, grupos de iglesias y otros..
En el experimento, a los participantes se les permitió crear su sociedad ideal. Podría seguir cualquier filosofía: podría ser una monarquía o democracia o anarquía. Podría ser capitalista o socialista. La gente en este experimento tenía la libertad de controlar absolutamente todas las facetas de la sociedad ... pero luego le daba un giro: no podían controlar qué posición ocupaban en esa sociedad.
Este giro es lo que John Harsanyi, uno de los primeros teóricos del juego, denomina "Velo de la ignorancia". Lo que Rawls descubrió, una y otra vez, fue que los individuos que participan en el experimento gravitarían hacia la creación de las sociedades más igualitarias..
Tiene sentido: lo que un ser humano racional e egoísta trataría mal a los ancianos, a los enfermos, a las personas de un género, raza, credo o color en particular si se encontraran en la misma posición cuando se retire el velo?
Las cosas que hacemos para satisfacer necesidades especiales ahora pagan dividendos en el futuro. Mira rampas.
Son un ejemplo clásico de una función de accesibilidad para personas en sillas de ruedas que también benefician a las personas que no están en ellas: personas que llevan equipaje, servicios de entrega que transportan objetos pesados en muñecas, padres que empujan a niños (o sus perros disfrazados) en cochecitos, un viajero que camina en su bicicleta, y ese tipo que simplemente prefiere caminar por una suave pendiente para gastar el esfuerzo requerido para subir un paso.
Cuando creamos rutas alternativas para llegar del punto A al punto B, las personas pueden tomar el más apropiado para ellos, ya sea por elección o por necesidad. Y todos pueden lograr sus metas..
Todos tenemos necesidades especiales. Algunos con los que nacemos. Algunos los desarrollamos. Algunos son temporales. Algunos no tienen nada que ver con nosotros personalmente, pero son circunstanciales o puramente dependientes del hardware que estamos usando, los métodos de interacción que tenemos disponibles, o incluso la velocidad a la que podemos acceder a Internet o procesar datos..
¿De qué se trata el diseño web sensible si no es accesibilidad? Sí, sus principios fundamentales se relacionan con el diseño visual, pero en términos generales, se trata de proporcionar la mejor experiencia de lectura posible..
Como profesionales del diseño responsivo, entendemos los beneficios de adaptar nuestras interfaces. Entendemos los fallbacks. Entendemos cómo diseñar experiencias sólidas que funcionen en una amplia variedad de condiciones. Cada día ampliamos la accesibilidad de nuestros productos..
Estas habilidades nos harán inestimables a medida que la tecnología continúe ofreciendo formas novedosas de consumir e interactuar con nuestros sitios web..
Estamos empezando a sumergirnos o meternos de pies en el mundo de los controles gestuales basados en el movimiento. Claro, los hemos tenido en dos dimensiones en pantallas táctiles por un tiempo, pero los controles tridimensionales basados en el movimiento apenas comienzan a aparecer. Puede ver una demostración de los controles gestuales alrededor de la marca de 41 segundos en el siguiente video:
El primer gran salto en esta dirección fue Kinect en la Xbox 360 (y más tarde, Windows). Con Kinect, interactuamos con la computadora usando movimientos del cuerpo como levantar una mano (lo que hace que Kinect preste atención), empujando nuestra mano hacia adelante para hacer clic / tocar, y agarrar para arrastrar el lienzo en una dirección particular.
El Kinect marcó el comienzo de una gran revolución en términos de interconexión con las computadoras, pero desde una perspectiva de interacción, presenta desafíos similares a los del controlador de Wii y la PlayStation Move de Sony. Los gestos corporales grandes como levantar la mano (o un controlador de varita) pueden ser agotadores.
Tampoco son terriblemente precisos. Si pensabas que la precisión de la pantalla táctil era un problema, los gestos con las manos como los de Kinect o LEAP Motion suponen un desafío aún mayor..
Para acomodar interacciones como esta (que actualmente no tenemos forma de detectar) debemos ser conscientes de lo fácil que es hacer clic en los controles interactivos. Necesitamos determinar si nuestros botones y enlaces son lo suficientemente grandes y si hay suficiente espacio entre ellos para garantizar que la intención de nuestro usuario se transmita con precisión al navegador. Dos especificaciones que pueden ayudar a solucionar esto son las consultas de medios de nivel 4 y los eventos de puntero.
En Media Queries Level 4, pudimos aplicar reglas de estilo a contextos de interacción particulares. Por ejemplo, cuando tenemos un control muy preciso sobre nuestro cursor (como en el caso de un lápiz o ratón) o un control menos preciso (como en el caso de una pantalla táctil o un gesto físico):
@media (puntero: fino) / * Los enlaces y botones más pequeños están bien * / @media (puntero: grueso) / * Los enlaces y botones más grandes son probablemente una buena idea * /
Por supuesto, queremos ofrecer un valor predeterminado razonable en términos de tamaño y espacio como alternativa para los navegadores y dispositivos más antiguos..
También tenemos la capacidad de determinar si el dispositivo es capaz de desplazarse sobre un elemento y puede ajustar la interfaz en consecuencia.
@media (hover: hover) / * las interacciones relacionadas con el hover son A-OK * / @media (hover: a pedido) / * las interacciones relacionadas con el hover son potencialmente difíciles, tal vez haga otra cosa * / @ media (hover: none) / * No hover posible :-( * /
Sin embargo, todavía tenemos que descubrir qué tan bien termina todo esto trabajando en dispositivos multimodales como la tableta Surface. ¿Cambiará el diseño cuando el usuario cambie entre los modos de entrada? ¿Deberia? Para ello, la especificación también proporciona cualquier puntero
y cualquier-hoverto
, lo que le permite consultar si alguna el método de interacción compatible cumple con sus requisitos, pero aquí hay una palabra de advertencia de la especificación:
Diseñar una página que se basa en el apuntar con el cursor o con precisión solo porque cualquier-hover o cualquier punteroindica que un mecanismo de entrada con estas capacidades está disponible, es probable que resulte en una experiencia pobre.
Estas opciones de consulta de medios están comenzando a desplegarse en Chrome, Mobile Safari y Microsoft Edge, por lo que vale la pena echarles un vistazo..
Pointer Events es otra especificación que está comenzando a ganar algo de tracción. Generaliza la interacción a un solo evento en lugar de forzarnos a la experiencia de silo a manejar con el mouse, con el tacto, con la pluma, con la fuerza (suspiro), etc..
Podemos detectar discretamente el soporte para Pointer Events ...
if (window.PointerEvent) window.addEventListener ("puntero hacia abajo", detectType, falso);
... y luego manejarlos todos de la misma manera o crear ramas basadas en el tipo puntero
:
función detectType (evento) switch (event.pointerType) caso "mouse": / * entrada de mouse detectada * / break; caso "pluma": / * entrada de lápiz / lápiz detectada * / break; caso "táctil": / * entrada táctil detectada * / interrupción; predeterminado: / * pointerType está vacío (no se pudo detectar) o tipo personalizado específico de UA * /
Por supuesto, además de considerar el nivel de precisión que tienen nuestros usuarios al interactuar con nuestras pantallas, también debemos considerar la distancia potencialmente mayor a la que nuestros usuarios leen nuestro contenido..
Para ello, he estado experimentando con la unidad de ancho de ventana gráfica (vw).
Durante mucho tiempo, he usado ems para el ancho máximo del diseño (por lo que la longitud de la línea es proporcional al tamaño de la fuente). También utilizo tamaños de fuente relativos. Con eso como base, puedo usar una consulta de medios que coincida con el ancho máximo y establecer el tamaño de fuente base en el equivalente de vw en el ancho máximo.
cuerpo ancho máximo: 64em; @media screen y (min-width: 64em) body font-size: 1.5625vw; / * (1em / 64em) * 100 * /
Luego, todo el diseño simplemente ampliará el diseño cuando se vea más allá de ese tamaño.
Si no desea activar algo así automáticamente, puede habilitarlo para que se active y desactive con JavaScript.
Las cosas se ponen aún más locas cuando empiezas a tener en cuenta dispositivos como los HoloLens. Y no, todavía no he jugado con uno, pero puedes ver una gran demostración en la marca de 1:27 en este video:
Pero la idea de poder colocar una pantalla virtual redimensionable en cualquier superficie presenta algunas posibilidades interesantes como usuario y algunos desafíos únicos como diseñador. HoloLens, por supuesto, también trae controles de gestos, por lo que tener en cuenta una variedad de tipos de entrada debería llevarnos bastante lejos..
En una línea similar, deberíamos comenzar a pensar qué experiencias pueden y deben tener un aspecto cuando navegamos únicamente con nuestra mirada. Gaze tracking tiene sus orígenes en el espacio de accesibilidad como un medio para proporcionar control de la interfaz a las personas con un uso limitado o nulo de sus manos. Tradicionalmente, el hardware de seguimiento de la mirada ha sido de varios miles de dólares, lo que lo ha dejado fuera del alcance de muchas personas, pero eso está empezando a cambiar..
En los últimos años, el poder de cómputo de nuestros dispositivos ha aumentado a medida que los costos de hardware asociados con el seguimiento de la mirada de soporte han disminuido drásticamente. Mirando a su alrededor, puede ver que el seguimiento de la mirada comienza a moverse hacia la esfera pública: muchos teléfonos inteligentes y relojes inteligentes pueden reconocer cuándo los mira (o al menos lo hacen a veces). Esto está a solo un paso de saber dónde se encuentra en la pantalla. Y casi todos los teléfonos inteligentes de gama alta ahora están equipados con una cámara frontal, lo que los hace candidatos perfectos para proporcionar este método de interacción.
Puedes ver una gran demostración de la tecnología de seguimiento facial de Sesame Phone desde la marca de 18 segundos en este video:
El teléfono Sesame fue diseñado para permitir que las personas usen un teléfono inteligente sin usar sus manos. Utiliza el seguimiento facial para mover un cursor virtual alrededor de la pantalla, lo que permite a los usuarios interactuar con el sistema operativo subyacente y con las aplicaciones individuales. Es compatible con toques, deslizar y otros gestos (a través de un menú contextual) y es bastante impresionante en mi experiencia. Esta tecnología permite a las personas que sufren de esclerosis múltiple, artritis, distrofia muscular y más usar un teléfono inteligente y, lo que es más importante para nosotros, navegar por la web.
Eye Tribe y Fixational también están trabajando para llevar el seguimiento ocular a teléfonos inteligentes y tabletas. El seguimiento ocular es similar al seguimiento facial, pero el cursor sigue su enfoque. Los gestos micro-parpadeo, guiño, etc.-le permiten interactuar con el dispositivo.
A pesar de que la mayoría del software de seguimiento de la mirada imita un mouse y tiene una sensibilidad ajustable, su precisión como dispositivo de puntero no es fantástica. Por ejemplo, cuando he usado el teléfono Sesame, me ha costado mucho controlar la posición de mi cabeza para mantener el cursor quieto y hacer clic en un botón. Estoy seguro de que esto mejoraría con la práctica, pero es seguro decir que en una interacción de mirada, los enlaces y botones más grandes, bien espaciados y más fáciles de apuntar serían una bendición..
Hasta ahora, me he centrado en los métodos de interacción que facilitan la navegación y el consumo de contenido. Pero ¿qué hay de llenar un formulario? Puedo decirles que escribir un correo electrónico letra por letra en un teclado virtual, usando su cara, apesta ...
Afortunadamente, la mayoría de estas implementaciones gestuales se combinan con algún tipo de reconocimiento de voz. El Kinect, por ejemplo, aceptará comandos verbales para navegar y realizar tareas como rellenar formularios. El Sesame Phone también admite comandos de voz para ciertas acciones básicas, dictado de correo electrónico, etc..
Junto con la voz, los métodos de interacción alternativos de Kinect y Sesame Phone funcionan realmente bien. Pero la interacción de voz puede valerse por sí misma también.
La mayoría de nosotros estamos familiarizados con Siri de Apple, Google Now y Cortana de Microsoft. Estos asistentes digitales son excelentes para recuperar información de fuentes seleccionadas y hacer otras cosas como el asistente, como calcular una sugerencia y establecer un recordatorio. En cuanto a la interacción con la web, sin embargo, no ... todavía. Podemos interactuar con ellos, pero no pueden (necesariamente) interactuar con una página web.
Exponer la información almacenada en nuestras páginas web a través de HTML semántico y sintaxis estructuradas como microformatos, microdatos y RDFa debería Finalmente, nuestro contenido estará disponible para estos asistentes, pero no lo sabemos realmente. Sus diferentes fabricantes realmente no nos han dado ninguna pista de cómo hacerlo y, tal como está ahora, ninguno de ellos puede buscar una página web y leerla. Para eso necesitas invocar un lector de pantalla..
Cada empresa ofrece un lector de pantalla propio. Y todos son capaces de ayudarlo a interactuar con una página, incluso de ayudarlo a completar formularios, sin tener que ver la página. Y, sin embargo, estas tecnologías no han sido acopladas con sus asistentes correspondientes. Probablemente no pasará mucho tiempo antes de que veamos que eso suceda..
Cuando comenzamos a considerar cómo se experimentarán nuestros sitios web en un contexto de voz, la legibilidad de nuestras páginas web se vuelve crucial. Una prosa clara y bien escrita y un orden de origen lógico serán una necesidad absoluta. Si nuestras páginas no tienen sentido cuando se leen, ¿cuál es el punto??
El estratega de contenido Steph Hay ve la interfaz como una oportunidad para conversar con nuestros usuarios. Pronto será literalmente.
Curiosamente, Microsoft nos ha dado un vistazo a lo que podría ser diseñar comandos de voz personalizados para nuestros sitios web más allá de lo que el sistema operativo admite de forma nativa con Cortana. En otras palabras, nos dejaron enseñar a su asistente..
En Windows 10, las aplicaciones web instalables pueden incluir un archivo de definición de comandos de voz (VCD) en el encabezado de la página para habilitar comandos personalizados:
El archivo VCD al que se hace referencia es simplemente un archivo XML que define la palabra clave para la aplicación web y los comandos que se pueden emitir.
Usando una sintaxis muy básica, el VCD identifica partes opcionales de una frase dada y las variables que Cortana debe extraer:
Mensaje de grupo Mensaje de grupo agregar nota agrega una nota mensaje usando la publicación de grupo [por favor] agregue una nota [que] noteSubject añadiendo noteSubject a Group Post
Esta aplicación en particular pasa la información capturada a JavaScript para su procesamiento. Así es, Cortana también tiene una API de JavaScript. Con buena pinta.
Pero las computadoras tradicionales y los dispositivos móviles inteligentes no son el único lugar donde estamos empezando a ver experiencias basadas en la voz. También tenemos voces incorpóreas como el eco de Amazon y el Ubi que están completamente sin cabeza.
En este momento, ambos parecen centrarse de lleno en ayudar a que su casa se convierta en música de transmisión “más inteligente”, ajuste el termostato, etc., pero no es difícil imaginar que estos dispositivos se unan a la capacidad de navegar e interactuar con la web..
En un futuro próximo, las interacciones basadas en voz con la web serán completamente posibles. Probablemente chuparán un poco al principio, pero mejorarán.
Voy a hacer una predicción un tanto audaz: mientras que el tacto ha sido revolucionario en muchos aspectos para mejorar el acceso digital, la voz será aún más importante. Las interfaces basadas en voz crearán nuevas oportunidades para que las personas interactúen y participen en el mundo digital.
Debido a que hemos estado pensando en cómo las experiencias que creamos son consumibles en una variedad de dispositivos, tenemos el salto sobre otras personas que trabajan en la web cuando se trata de voz. Vemos la experiencia como un continuo, comenzando con el texto..
A medida que la tecnología de voz madure, seremos aquellos a quienes las personas consideramos expertos. Permitiremos que la próxima generación de sitios web y aplicaciones se conviertan en voz y, al hacerlo, mejoraremos las vidas de miles de millones. Debido a que la “accesibilidad” no se trata de discapacidades, se trata de acceso y se trata de personas.
Claro, facilitaremos la búsqueda de horarios de películas y la compra de entradas para ver las últimas novedades. Transformadores debacle, pero también capacitaremos a los casi 900 millones de personas en todo el mundo, más del 60% de las cuales son mujeres, que son analfabetas. Y esa es una población que ha sido ampliamente ignorada en nuestra red predominantemente textual..
Crearemos nuevas oportunidades para que los pobres y desfavorecidos participen en un mundo que los ha excluido. Puede que no lo sepa, pero el 80% de las compañías Fortune 500 piensan que Target, Walmart, solo aceptan solicitudes de trabajo en línea o por computadora. Permitiremos que las personas que tienen habilidades informáticas limitadas o que luchan con la lectura puedan solicitar puestos de trabajo con estas empresas.
Podemos ayudar a cerrar la brecha digital y la brecha de alfabetización. Podemos crear oportunidades para que las personas mejoren sus vidas y las vidas de sus familias. Tenemos el poder de crear más equidad en este mundo de lo que la mayoría de nosotros hemos soñado..
¡Este es un momento increíblemente emocionante, no solo para la comunidad de diseño receptivo, no solo para la web, sino para el mundo! El futuro se acerca y no puedo esperar a ver lo increíble que lo haces.!
Responsive Day Out 3: The Final Breakpoint se celebró en Brighton, Reino Unido, el 19 de junio de 2015.
Este artículo es parte de la serie de desarrollo web de los expertos en tecnología de Microsoft sobre aprendizaje práctico de JavaScript, proyectos de código abierto y mejores prácticas de interoperabilidad, incluido el navegador Microsoft Edge y el nuevo motor de renderizad