A Game Developer’s Conference deste ano realizou-se em São Francisco e teve pelo menos uma intervenção muito interessante. Em concreto refiro-me ao psicólogo e investigador da conhecida empresa de gamming Valve Corporation, Mike Ambinder.

Esta empresa norte-americana sediada em Bellevue, Washington, foi fundada em 1996, e tornou-se conhecida pelo seu sucesso Half-Life, um “First Person Shooter” que vendeu mais de 9 milhões de cópias. Mas não ficaram por aqui. Quem fala no Half-Life ou na Valve, tem obrigatoriamente que falar em franquias que resistiram até aos dias de hoje como o Counter-Strike ou o viciante Team Fortress…

O que dizem os especialistas dos “Headsets VR”?

Os jogos em realidade virtual já são bastante imersivos, embora ainda não existam muitos títulos de absoluto sucesso, como os épicos da Valve. Ou seja, já conseguimos enganar os nossos sentidos, fazendo substituir a realidade por uma realidade alternativa e In-Game, mas isso ainda “não abanou o mundo”!.

Mas nesta Game Developer’s Conference, a intervenção de Mike Ambinder sobre as excitantes possibilidades de no futuro podermos adicionar interfaces cérebro-computador  (BCI’s) aos headsets de realidade virtual, foi mesmo o que surpreendeu.

Basicamente ele informou que a Valve anda a estudar a possibilidade de usar sensores não-invasivos de eletroencefalograma (EEG), no interior dos phones do headset de realidade virtual. E esta parece ser uma nova tendência que encontra paralelo nas maiores companhias de telefones do mundo.

A Apple que ainda agora lançou uma versão 2 dos AirPods, que desiludiu pela falta de novas features concentrando-se apenas no wireless charging e tempo de bateria, originou um rumor interessante: Os analistas internacionais dizem que a falta de novas features ou valências nesta Geração 2 dos AirPods, deve-se ao facto de já em 2020 a Apple querer lançar os AirPods 3 (já em desenvolvimento), com a capacidade de usarem sensores de ouvido. Estes sensores terão a capacidade de dar aos headphones a possibilidade de medir ritmos cardíacos aplicando essas valências ao serviço dos Fitness Trackers, (tal como deverá estar relacionada com a feature de noise canceling.

Ora se empresas como a Apple estão já a desenvolver headphones com sensores, a possibilidade desses sensores (embora com objectivos mais ambiciosos) poderem vir a aparecer na indústria dos jogos é muito grande.

Sensores EEG e jogar com o pensamento…

A verdade é que já existem sensores EEG, aplicados aos headphones ou seja, existem já leitores de EEG que detectam os sinais elétricos emitidos pelo cérebro e os transformam em dados. E segundo Ambinder é possível configurar jogos de acordo com as leituras desses sinais, o que permitirá não só jogar com o pensamento, como também levar a cabo acções com base no estado de espírito (gostar, não gostar, ficar entediado, etc).

Aliás segundo defendeu Ambinder, esta é a única maneira de recriar um ambiente virtual perfeito para um jogador de VR, criando uma representação semelhante do utilizador dentro de um mundo virtual. Desta forma o avatar pode replicar completamente o atual estado de espírito ou humor do user, tornando o ambiente mais real.

Vamos pensar nos Interfaces actuais!

Não é possível jogar sem usar um interface (seja ele teclado ou rato). E a indústria de Gamming tem evoluído no sentido de desenvolver os interfaces funcionais já existentes, não tentando avançar tecnologicamente na área dos BCI ou nos Brain-Computer Interfaces.

Mesmo colocando 17 botões num rato de Gamming ou simplificando um teclado, segundo Ambinder, a memória é uma limitação fundamental: Existe um número limitado para o número de combinações de teclas e ordens que podemos dar por intermédio dos interfaces actuais. Mesmo os Gamepads são limitados e nota-se isso se houver no jogador qualquer tipo de mobilidade reduzida.

Porque este é um assunto dos dias de hoje, e porque se quer encontrar novas maneiras de pensar o Gamming, a Microsoft desenvolveu o Xbox Adaptive Controller. Este pretende contornar as limitações de mobilidade, encontrando outros caminhos para que os impulsos recebidos cheguem mais depressa ao cérebro (gerando uma resposta).

Assim, o Interface Cérebro-Computador deverá ser desenvolvido para contornar o tempo de resposta que perdemos com a mecânica corporal, e gerando informação adicional ao jogo de forma inata e subconsciente, no sentido de criar a melhor experiência possível de Gamming.

Um adulto tem cerca de 100 mil milhões de neurónios que produzem um quatrilião de sinapses, o que é capaz de gerar algum tipo de questões no que diz respeito á privacidade… Mas…

Interface Cérebro-Computador

… Mas se nos esquecermos um pouco da privacidade, vejamos que tipo de tecnologia está a ser estudada agora, para poder ser utilizada também na indústria de Gamming:

Não podemos entrar dentro do cérebro de um humano, sem causar danos… Mas podemos utilizar ferramentas de medição como os monitores de EEG, ou a espectroscopia de infravermelho (que mede a dispersão do fluxo sanguíneo) ou aparelhos de ressonância magnética, que medem o fluxo da oxigenação do sangue. E também podemos medir a resposta da pele através do suor, bem como a tensão muscular e postura.

E qual a importância disto? Poupar 10 a 30 milissegundos do tempo de reação em cada ordem originada pelo cérebro, o que é muito, mas também acrescentar uma valência emocional aos ambientes virtuais a nível de interacção.

Isto pode parecer fantasia, mas é bem real. Por exemplo uma startup chamada Neurable está já a testar BCIs construídos em headsets de realidade virtual, para segundo o seu site “criar uma extensão natural dos nossos cérebros, criando novas possibilidades para o empowerment humano”.

Os VR Headsets e os robots da GITAI

A Agência Japonesa de Exploração Aeroespacial (JAXA) e uma startup fabricante de robots espacias celebraram recentemente uma parceria que deverá vir a dar frutos até 2020, a bordo da Estação Espacial Internacional.

Segundo o co-fundador e CEO da GITAI, Sho Nakanose, em declarações à IEEE Spectrum, está a ser preparada uma frota de robots para realizar tarefas domésticas ou perigosas, permitindo aos cientistas concentrar-se em tarefas mais científicas.

Nos vídeos divulgados pela GITAI podemos ver robots com características vagamente humanoides a realizar tarefas num ambiente concebido para se parecer com a ISS. Estes robots foram concebidos para serem remotamente controlados pelos operadores da Earthbound. Estes robots de trabalho remoto são o primeiro passo para uma geração de robots controlados por capacetes/headsets VR, na exploração espacial.

A GITAI afirma que consegue operar estes robots em órbita da Terra, fazendo-os transmitir vídeos a 360 graus, cuja transmissão tem apenas com um atraso de 60 milissegundos. E se estivermos a falar da superfície da Lua, a 4 dias de distância da Terra, esse atraso passará apenas para o 1,2 segundos o que na prática significa que teremos robots autónomos a trabalhar “remotamente”.

Se estes robots já são controlados com capacetes VR, como será no futuro quando estiver mais desenvolvida a tecnologia da Neurable e do Gamming???

***Aceite a sugestão do Bit2Geek e clique em baixo para saber mais

SEER: Um Robot Capaz de Mostrar Emoções, Cujo Olhar Nos Segue