No próximo dia 28 de Junho, na Robotics: Science and Systems vão ser apresentados robots que lêem os nossos pensamentos.
Foi inventado um novo sistema com base em ondas cerebrais e gestos, que alerta a Inteligência Artificial para o nosso “descontentamento” com uma acção realizada por um robot, ou condução da tarefa.
É um mecanismo de segurança, que pretende reconduzir o robot para o “trilho” correcto, e cujas aplicações visam auxiliar pessoas que supervisionam fábricas, hospitais e residências particulares, onde os robots vão ter cada vez mais uma maior implantação, e eventualmente substituir os humanos.
A Robotics: Science and Systems realiza-se anualmente, e este ano vai decorrer a partir de amanhã no Carnegie Music Hall em Pittsburgh, Pennsylvania, nos Estados Unidos.
O advento dos robots é um assunto a seguir com atenção, se atentarmos aos últimos desenvolvimentos na área da inteligência artificial: 1- não só o Google Assistant tem a já a capacidade de imitar um humano, sem conseguirmos notar a diferença num telefonema, ou a tão popular e inteligente Sophia… 2- ou o Atlas da Boston Dynamics que tem já uma grande desenvoltura nos movimentos, 3- e os robots tendem a ficar progressivamente mais humanos, e a usarem inclusivamente “tecido vivo” nas suas configurações. Esse teste já foi realizado com sucesso nas “experiências híbridas” da Universidade de Tokyo com os  “biohybrids” que usam já tecido humano para movimentar uma mão robotizada (vídeo), o que é tão importante tanto para o desenvolvimento dos robots humanizados, como na utilização de implantes, para melhorar a capacidade física dos humanos…
São agora apresentados, nesta conferência que começa amanhã, aqueles que terão capacidade de ler a mente.
Para já só podem fazê-lo via a colocação de eléctrodos na cabeça e antebraço do humano, que os está a supervisionar. Está provado que fazemos pequenos gestos por impulso do antebraço ou activamos áreas do nosso cérebro, quando detectamos “impulsos potenciais de erro”… São reacções eléctricas a algo que provoca o nosso desagrado…
Estes eléctrodos são posteriormente enviados para o robot, que pára e reavalia a sua acção. Basicamente são alertas emitidos pela reacção ao estímulo, antes sequer de o humano ter de pensar se é ou não necessário intervir…
Este sistema foi testado pela especialista em robótica do MIT, Daniela Rus, e pelos seus colegas, em sete voluntários. Cada “cobaia” supervisionava um robô que movia uma broca em direcção a um de três possíveis alvos, cada um marcado por uma lâmpada LED, numa fuselagem de avião falsa.
Sempre que o robô se concentrava no alvo errado, o alerta de erro mental da “cobaia” interrompia o robot. E quando o supervisor da acção sacudia o pulso para a esquerda ou para a direita para redireccionar o robô, a máquina movia-se em direcção ao alvo adequado.
Os resultados foram que em mais de mil tentativas, o robô inicialmente visou o alvo correto em cerca de 70% da experiência, com a intervenção humana escolheu o alvo certo em mais de 97% das tentativas.
A equipa do MIT planeia agora construir uma versão que reconheça uma mais ampla variedade de movimentos do “humano-supervisor”. O objectivo é poder-se gesticular com o robot para que ale aprenda de forma mais fluída, explicou Joseph DelPreto, co-autor do estudo, também especialista em robótica do MIT.
Além disso, a emissão de comandos via actividade cerebral e muscular pode funcionar especialmente bem em locais barulhentos ou mal iluminados, como fábricas ou “outdoors”.
“Nessas áreas, outros meios de direccionamento de robots, como dicas visuais ou instruções verbais, podem não funcionar tão bem”, explicou Alexandre Barachant, pesquisador de interface cérebro-computador do CTRL-Labs, em Nova York.
Ficamos a aguardar que o MIT desenvolva sensores que não tenham que estar ligados aos humanos, ou então que sejam tão simples como a utilização de uns óculos e uma luva…