Os entusiastas da inteligência artificial (IA) que assistiram à palestra do economista americano Paul Romer hoje, no evento Febraban Tech, levaram um balde de água fria. Segundo ele, a IA é “fraca, perigosa e não deveria estar sendo usada da forma como é atualmente”.
Romer venceu o prêmio Nobel de economia em 2018 e é conhecido por cunhar o termo “mathiness”, que descreve o uso errôneo de matemática na pesquisa econômica. Segundo o economista, o problema é que a quantidade de erros possíveis, com a combinação de dados e variáveis que são inseridos, é tão gigante que os modelos de IA não conseguem chegar a respostas acuradas. O problema decorre de um conceito matemático chamado “explosão combinatória”.
Romer deu um exemplo simples para descrever essa “explosão combinatória”. A quantidade de maneiras diferentes de organizar um baralho com 52 cartas é tão grande que, se toda a humanidade estivesse embaralhando essas cartas desde o “Big Bang”, até hoje as combinações possíveis não teriam sido esgotadas.
O economista, que não usa o termo inteligência artificial e prefere “machine learning”, explicou que tanto os receios quanto as expectativas em relação à IA são exagerados e ressaltou que grandes e poderosas empresas querem ganhar dinheiro vendendo soluções de IA.
Ele citou um exemplo de alucinação, quando um advogado da Anthropic – uma startup americana de GenAI (inteligência artificial generativa) – usou a ferramente da própria empresa para escrever um processo judicial. Ao não conseguir encontrar um link, a IA “inventou” uma citação, que foi percebida pelo juiz, jogando a reputação da empresa e do advogado no lixo.
Segundo Romer, os sistemas humanos são tão complexos que não dá para operar sem erro e, por isso, é essencial saber gerenciar os erros. A questão é que há décadas os cientistas estão tentando ensinar os modelos de IA a fazer isso e ter uma maior acurácia, mas os avanços têm sido muito limitados.
De acordo com ele, o nível de precisão dos modelos de IA é entre 50% e 60%, o que simplesmente não é suficiente. “Ninguém quer uma resposta que é perto de ser confiável, eles querem uma resposta confiável. As pessoas estão usando IA para fazer coisas nas quais eses modelos não são bons, geram pouco benefício e correm o risco de causar danos reais. Se você avaliar os riscos e benefícios, aposto que vai descobrir que quase nunca faz sentido usar esses modelos”, disse.
O Prêmio Nobel citou, por exemplo, um caso com um carro autônomo da Tesla, onde o sol afetou a visibilidade da câmera e o veículo acabou atropelando e matando uma mulher. Para o economisa, a IA é interessante, faz coisas maravilhosas, mas ainda é muito fraca.
“Temos que ser cuidadosos para não sermos enganados por pessoas que tentam vender IA. Ela é uma ferramenta perigosa e não deveria ser usada da forma que está sendo usada.”
Com 70 anos, Romer escreveu alguns códigos ao vivo durante sua palestra, para ilustrar seus exemplos, e no fim disse que não usa IA para isso. “Quando eu escrevo códigos eu nunca uso IA e recomendo que vocês também não usem.”
/i.s3.glbimg.com/v1/AUTH_63b422c2caee4269b8b34177e8876b93/internal_photos/bs/2019/I/I/QXAjmUSISZlMnFLo2kBQ/foto09int-112-subnobel-a10.jpg)
Os entusiastas da inteligência artificial (IA) que assistiram à palestra do economista americano Paul Romer hoje, no evento Febraban Tech, levaram um balde de água fria. Segundo ele, a IA é “fraca, perigosa e não deveria estar sendo usada da forma como é atualmente”.
Romer venceu o prêmio Nobel de economia em 2018 e é conhecido por cunhar o termo “mathiness”, que descreve o uso errôneo de matemática na pesquisa econômica. Segundo o economista, o problema é que a quantidade de erros possíveis, com a combinação de dados e variáveis que são inseridos, é tão gigante que os modelos de IA não conseguem chegar a respostas acuradas. O problema decorre de um conceito matemático chamado “explosão combinatória”.
Romer deu um exemplo simples para descrever essa “explosão combinatória”. A quantidade de maneiras diferentes de organizar um baralho com 52 cartas é tão grande que, se toda a humanidade estivesse embaralhando essas cartas desde o “Big Bang”, até hoje as combinações possíveis não teriam sido esgotadas.
O economista, que não usa o termo inteligência artificial e prefere “machine learning”, explicou que tanto os receios quanto as expectativas em relação à IA são exagerados e ressaltou que grandes e poderosas empresas querem ganhar dinheiro vendendo soluções de IA.
Ele citou um exemplo de alucinação, quando um advogado da Anthropic – uma startup americana de GenAI (inteligência artificial generativa) – usou a ferramente da própria empresa para escrever um processo judicial. Ao não conseguir encontrar um link, a IA “inventou” uma citação, que foi percebida pelo juiz, jogando a reputação da empresa e do advogado no lixo.
Segundo Romer, os sistemas humanos são tão complexos que não dá para operar sem erro e, por isso, é essencial saber gerenciar os erros. A questão é que há décadas os cientistas estão tentando ensinar os modelos de IA a fazer isso e ter uma maior acurácia, mas os avanços têm sido muito limitados.
De acordo com ele, o nível de precisão dos modelos de IA é entre 50% e 60%, o que simplesmente não é suficiente. “Ninguém quer uma resposta que é perto de ser confiável, eles querem uma resposta confiável. As pessoas estão usando IA para fazer coisas nas quais eses modelos não são bons, geram pouco benefício e correm o risco de causar danos reais. Se você avaliar os riscos e benefícios, aposto que vai descobrir que quase nunca faz sentido usar esses modelos”, disse.
O Prêmio Nobel citou, por exemplo, um caso com um carro autônomo da Tesla, onde o sol afetou a visibilidade da câmera e o veículo acabou atropelando e matando uma mulher. Para o economisa, a IA é interessante, faz coisas maravilhosas, mas ainda é muito fraca.
“Temos que ser cuidadosos para não sermos enganados por pessoas que tentam vender IA. Ela é uma ferramenta perigosa e não deveria ser usada da forma que está sendo usada.”
Com 70 anos, Romer escreveu alguns códigos ao vivo durante sua palestra, para ilustrar seus exemplos, e no fim disse que não usa IA para isso. “Quando eu escrevo códigos eu nunca uso IA e recomendo que vocês também não usem.”
/i.s3.glbimg.com/v1/AUTH_63b422c2caee4269b8b34177e8876b93/internal_photos/bs/2019/I/I/QXAjmUSISZlMnFLo2kBQ/foto09int-112-subnobel-a10.jpg)