Pagina inicial » UI / UX » 8 Interface de usuário de última geração que estão (quase) aqui

    8 Interface de usuário de última geração que estão (quase) aqui

    Quando falamos de interface de usuário (UI) na computação, estamos nos referindo a como um programa de computador ou sistema se representa para seu usuário, geralmente via gráficos, texto e som. Estamos todos familiarizados com o típico sistema operacional Windows e Apple, onde interagimos com ícones em nosso desktop com nossos cursores de mouse. Antes disso, tivemos o prompt de linha de comando baseado em texto da velha escola.

    A mudança do texto para os gráficos foi um grande passo iniciado pelo fundador da Apple, Steve Jobs, com seu sistema operacional Macintosh em 1984. Nos últimos anos, também testemunhamos uma interface inovadora que envolveu o uso do toque (por exemplo, smartphones), voz (por exemplo, Siri) e até mesmo gestos (por exemplo, Microsoft Kinect). Eles são, no entanto, praticamente em seus estágios primários de desenvolvimento.

    No entanto, eles nos dão uma pista de como a próxima revolução da interface do usuário pode ser. Curioso? Aqui estão 8 principais características do que a próxima geração da interface do usuário pode ser:

    1. Interfaces Gesto

    O filme de ficção científica de 2002, Minority Report, retratou um futuro em que as interações com sistemas de computador são principalmente através do uso de gestos. Usando um par de luvas futuristas, Tom Cruise, o protagonista, é visto realizando vários gestos com as mãos para manipular imagens, vídeos, folhas de dados em seu sistema de computador..

    Uma década atrás, pode parecer um pouco improvável ter uma interface do usuário em que os movimentos espaciais sejam detectados de forma tão perfeita. Hoje, com o advento de dispositivos de detecção de movimento como o Wii Remote em 2006, o Kinect e o PlayStation Move em 2010, as interfaces de usuário do futuro podem estar apenas seguindo nessa direção.

    No reconhecimento de gestos, a entrada vem em forma de mão ou qualquer outro movimento corporal para executar tarefas de computação, que até o momento ainda são inseridas via dispositivo, tela sensível ao toque ou voz. o adição do eixo z à nossa interface bidimensional existente sem dúvida, melhorará a experiência de interação humano-computador. Imaginem quantas outras funções podem ser mapeadas em nossos movimentos corporais.

    Bem, aqui está um vídeo de demonstração do g-speak, um protótipo da interface do computador visto no Minority Report, projetado por John Underkoffler, que na verdade era o conselheiro científico do filme. Veja como ele navega por milhares de fotos em um plano 3D por meio de gestos com as mãos e colabora com os colegas "gestores das mãos" nas tarefas da equipe. Animado? A Underkoffler acredita que essa UI estará comercialmente disponível nos próximos cinco anos.

    2. Interface cérebro-computador

    Nosso cérebro gera todos os tipos de sinais elétricos com nossos pensamentos, tanto que cada pensamento específico tem sua própria onda cerebral padronizar. Estes sinais elétricos exclusivos podem ser mapeados para executar comandos específicos de modo que pensar o pensamento pode realmente levar a cabo o comando set.

    Em um neuroheadset do EPOC criado por Tan Le, co-fundador e presidente da Emotiv Lifescience, os usuários têm que fone de ouvido futurista que detecta suas ondas cerebrais geradas por seus pensamentos.

    Como você pode ver neste vídeo de demonstração, o comando executado pelo pensamento é bem primitivo (isto é, puxar o cubo em direção ao usuário) e ainda assim a detecção parece estar enfrentando algumas dificuldades. Parece que esta interface do usuário pode demorar um pouco para ser desenvolvida adequadamente.

    De qualquer forma, imagine um futuro (distante) onde operar sistemas de computador apenas com pensamentos. Do conceito de 'casa inteligente', onde se pode ligar ou desligar as luzes sem ter de sair da cama de manhã, com a ideia de mergulhar numa experiência de jogo que responde ao seu humor (através de ondas cerebrais), o potencial para uma interface tão incrível é praticamente ilimitado.

    3. display OLED flexível

    Se as telas sensíveis ao toque nos smartphones forem rígidas e ainda não responderem o suficiente aos seus comandos, provavelmente você será o primeiro na fila para experimentar displays OLED (diodo orgânico emissor de luz) flexíveis. O OLED é um semicondutor orgânico que ainda pode exibir a luz mesmo quando enrolado ou esticado. Cole-o num substrato flexível de plástico e terá um ecrã smartphone novo e menos rígido.

    Além disso, essas novas telas podem ser torcidas, dobradas ou dobradas para interagir com o sistema de computação. Dobre o telefone para aumentar e diminuir o zoom, gire um canto para aumentar o volume, gire o outro canto para abaixá-lo, gire ambos os lados para percorrer as fotos e muito mais.

    Essa interface flexível nos permite naturalmente interagir com o smartphone, mesmo quando nossas mãos estão muito preocupadas para usar a tela sensível ao toque. Essa pode ser a resposta para a sensibilidade (ou falta dela) de telas de smartphones para dedos enluvados ou quando os dedos são grandes demais para alcançar os botões certos. Com esta interface, tudo que você precisa fazer é apertar o telefone com a palma da mão para atender uma chamada.

    4. Realidade Aumentada (AR)

    Já estamos experimentando o AR em alguns de nossos aplicativos para smartphones, como o Wikitude, mas ele está em seus estágios elementares de desenvolvimento. AR está recebendo o maior impulso na conscientização através do próximo projeto do Google Glass, um par de óculos wearable que permite um para veja extensões virtuais da realidade com a qual você pode interagir. Aqui está uma demonstração incrível do que esperar.

    AR pode estar em algo diferente de óculos, desde que o dispositivo seja capaz de interagir com um ambiente do mundo real em tempo real. Imagine uma peça de dispositivo transparente que você pode segurar sobre objetos, edifícios e arredores para fornecer informações úteis. Por exemplo, quando você se depara com uma tabuleta estrangeira, pode olhar pelo dispositivo de vidro para vê-las traduzidas para facilitar a leitura.

    O AR também pode usar seu ambiente natural para criar interfaces de usuário móveis nas quais você pode interagir projetando exibições em paredes e até mesmo em suas próprias mãos..

    Confira como isso é feito com o SixthSense, um protótipo de uma interface gestual vestível desenvolvida pelo MIT que utiliza AR.

    5. Interface do usuário de voz (VUI)

    Desde a apresentação em vídeo de "Put That There", de Chris Schmandt, em 1979, o reconhecimento de voz ainda não encontrou um tipo revolucionário de sucesso. O mais recente hype sobre VUI tem que ser Siri, um aplicativo de assistente pessoal que é incorporado ao iOS da Apple. Ele usa uma interface de usuário em linguagem natural para sua função de reconhecimento de voz para executar tarefas exclusivamente em dispositivos Apple.

    No entanto, você também vê isso como o ato de suporte em outras tecnologias de interface do usuário, como o próprio Google Glass. O vidro funciona basicamente como um smartphone, só você não precisa segurá-lo e interagir com ele com os dedos. Em vez disso se apega a você como óculos e recebe seus comandos via controle de voz.

    A única coisa que está faltando agora na VUI é a confiabilidade de reconhecer o que você diz. Aperfeiçoe isso e ele será incorporado nas interfaces do usuário do futuro. Na medida em que os recursos dos smartphones estão se expandindo e se desenvolvendo agora, é apenas uma questão de tempo até que a VUI ocupe o centro do palco como forma primária de interação humano-computador para qualquer sistema de computação.

    6. Interface de usuário tangível (TUI)

    Imagine ter um sistema de computador que funde o ambiente físico com o mundo digital para permitir o reconhecimento de objetos do mundo real. No Microsoft Pixelsense (anteriormente conhecido como Surface), a superfície de computação interativa pode reconhecer e identificar objetos que são colocados na tela.

    No Microsoft Surface 1.0, a luz dos objetos é refletida para várias câmeras infravermelhas. Isso permite que o sistema para capturar e reagir aos itens colocados na tela.

    Em uma versão avançada da tecnologia (Samsung SUR40 com Microsoft PixelSense), a tela inclui sensores, em vez de câmeras para detectar o que toca a tela. Nesta superfície, você pode criar pinturas digitais com pincéis com base na entrada da ponta de pincel real.

    O sistema também é programado para reconhecer tamanhos e formas e interagir com tags incorporadas por exemplo. um cartão de visita marcado colocado na tela exibirá as informações do cartão. Os smartphones colocados nas superfícies podem acionar o sistema para exibir as imagens na galeria do telefone na tela sem problemas.

    7. Computador Vestível

    Como o nome sugere, os computadores vestíveis são dispositivos eletrônicos que você pode usar em você como um acessório ou vestuário. Pode ser um par de luvas, óculos, um relógio ou até mesmo um terno. O principal recurso da interface do usuário vestível é que ela deve mantenha suas mãos livres e não vai atrapalhar suas atividades diárias. Em outras palavras, ele servirá como um atividade secundária para você, como e quando você deseja acessá-lo.

    Pense nisso como tendo um relógio que pode funcionar como um smartphone. A Sony já lançou no início deste ano um SmartWatch com Android que pode ser emparelhado com o seu telefone Android via Bluetooth. Pode fornecer notificações de novos e-mails e tweets. Como em todos os smartphones, você pode baixar aplicativos compatíveis no Sony SmartWatch para facilitar a acessibilidade.

    Esperar uma interface do usuário mais fácil de usar em um futuro próximo, pois os microchips com capacidades inteligentes crescem em tamanho menor e são equipados para uso diário.

    8. Interface do usuário da rede do sensor (SNUI)

    Aqui está um exemplo de uma UI fluida onde você tem vários blocos compactos feitos de telas LCD coloridas, acelerômetros embutidos e transceptores infravermelhos IrDA que são capazes de interagir uns com os outros quando colocados nas proximidades. Vamos simplificar isso. É como as peças de Scrabble que têm telas que serão alteradas para refletir os dados quando colocadas lado a lado.

    Como você verá neste vídeo de demonstração do Siftables, os usuários podem interaja fisicamente com as telhas inclinando, sacudindo, levantando e batendo com outros azulejos semelhantes. Essas peças podem servir como altamente interativas ferramenta de aprendizado para crianças pequenas que podem receber reações imediatas às suas ações.

    SNUI também é ótimo para Quebra-cabeças simples onde a jogabilidade inclui telhas móveis e rotativas ganhar. Depois, há também a capacidade de classificar imagens fisicamente agrupando essas peças juntas de acordo com suas preferências. É um TUI mais habilitado para a multidão; em vez de uma tela é feita de várias telas menores que interagem umas com as outras.

    Interface de usuário mais antecipada?

    Como essas interfaces se tornam mais intuitivas e naturais para a nova geração de usuários, somos tratados com uma experiência de computação mais imersiva que testará continuamente nossa capacidade de digerir o fluxo de conhecimento que eles têm para compartilhar. Será impressionante e, às vezes, empolgante e definitivamente é algo para se esperar nas novas tecnologias que virão.

    Mais!

    Interessado em ver o que o futuro nos reserva? Confira os links abaixo.

    • 5 melhores aplicativos de realidade aumentada para educação
    • 5 principais características para esperar em futuros smartphones
    • Vídeos TED de cair o queixo que você não deve perder

    Qual destas incríveis UI você está mais animada? Ou você tem outras idéias para a interface do usuário da próxima geração? Compartilhe seus pensamentos aqui nos comentários.