Header Ads

Google cria 5 regras para garantir que a inteligência artificial seja segura


A inteligência artificial está crescendo rapidamente, com ela vem as desconfianças, muitos tem um "pé atrás" com a tecnologia, muitos temem um suposto "apocalipse", com isso a Google, uma das empresas que mais investem em inteligência artificial, listou 5 regras para evitar que as maquinas se revoltem. 

Em nota divulgada no dia 22 de junho, a empresa falou que embora os riscos da  tecnologia vem sendo bem comentada pelo publico em geral, não passam de hipóteses.

Por causa dessas especulações a gigante das buscas desenvolveu uma pesquisa que abrange essa questão. "Nós listamos cinco problemas que achamos que serão muito importantes à medida que aplicamos IA em mais circunstâncias gerais”, relata a Google.

Os tópicos são: 
  • Evitar efeitos colaterais negativos: como podemos assegurar que um sistema de IA não causará distúrbios em seu ambiente de forma negativa enquanto persegue seus objetivos, por exemplo, um robô de limpeza que derruba um vaso porque ele pode limpar mais rapidamente se fizer isso?
  • Evitar prêmios por trapaças: como podemos evitar o jogo da função por recompensas? Por exemplo, não queremos este robô de limpeza simplesmente cobrindo sujeira com materiais através dos quais ele não consegue ver.
  • Supervisão escalonável: como podemos assegurar eficientemente que um sistema de IA respeite os aspectos do objetivo que são muito caros para serem frequentemente avaliados durante o treinamento? Por exemplo, se um sistema de IA recebe avaliação enquanto realiza uma tarefa, ele precisa usar essa avaliação eficientemente, porque pedir com muita frequência seria irritante.
  • Exploração segura: como asseguramos que um sistema de IA não faça movimentos exploratórios com repercussões muito negativas? Por exemplo, talvez um robô de limpeza devesse fazer experimentos com estratégias envolvendo esfregão, mas ele claramente não deveria tentar colocar um esfregão molhado numa tomada.
  • Robustez em mudanças de turnos: como asseguramos que um sistema de IA reconheça e se comporte com robustez quando ele estiver em um ambiente muito diferente do seu ambiente de treinamento? Por exemplo, aprendizados heurísticos de um chão de fábrica talvez não sejam seguros o bastante para um escritório.












Tecnologia do Blogger.