A opacidade dos sistemas complexos é vista com um dos obstáculos à sua adoção generalizada. Da robótica à inteligência artificial, são muitos os sistemas em que sentimos não conseguir confiar porque não percebemos como funcionam. Não é transparente a forma como foram programados, ou como foram desenvolvidos os seus algoritmos. Este projeto de investigadores da UCLA quer mudar isso, criando um robot que explica as suas ações.
Confiança Num Robot Que Explica O Que Faz
Este projeto advém da iniciativa Explainable AI, criada pela DARPA. Esta foi criado com o fim explícito de desenvolver tecnologias e mecanismos que permitam aos utilizadores perceber como funcionam os sistemas computacionais. A compreensão do seu funcionamento permite um maior nível de confiança no desempenho dos algoritmos. Bem como melhor eficácia no emparelhamento de trabalho humano com trabalho robotizado.
Neste âmbito, um robot industrial Baxter foi treinado para desempenhar uma tarefa que, para nós, é muito simples: abrir um frasco. O treino foi efetuado por interação háptica com humanos, que usando uma luva com sensores demonstraram ao robot quais os passos para desempenhar a tarefa. Este treino foi combinando com sequências de símbolos que são mostradas no ecrã do robot. Com isto, torna-se inteligível para qualquer operador o algoritmo de base que o robot usa. Mas o que sublinha a capacidade de confiança deste tipo de sistemas foi um estudo psicológico, avaliando o impacto das ações explicadas do robot nos seus operadores. A conclusão? Quanto mais compreensível, para nós, a forma como o processo automatizado funciona, maior o nível de confiança que depositamos no sistema.
***IMPORTANTE*** Não se esqueça de ajudar o Bit2Geek a crescer nas redes sociais, para termos mais colaboradores e mais conteúdo, |
***E clique em baixo para saber mais…
Disney: De animatronics a robots autónomos que substituem os duplos.