Inteligência Artificial. Essa é a bola da vez e não apenas no mundo da tecnologia. A tal “IA” está em toda parte e todo mundo está falando sobre isso, eu diria até de forma exaustiva. E eu estou no mesmo barco.
Nem quando eu realmente trabalhava com IA (cheguei a dar um dos primeiros cursos de Machine Learning voltado para artistas na EBAC, em 2019), eu era chamada para falar sobre o tema. Não há dúvida que estamos no hype da IA, assim como foi com NFT em 2020/21, metaverso em 2021/22. Mas como podemos ver nas buscas por esse tema, já passamos do pico do hype e agora, já podemos olhar para ele como certo distanciamento crítico.
Quando vamos analisar, boa parte do que tem sido chamado de IA é, na melhor das hipóteses, um algoritmo estatístico de previsão. Não que a IA também não seja isso, mas a hipervalorização das palavras “inteligência artificial” e a necessidade, sem fundamento, de utilizá-las em qualquer discurso, já deu. Tudo parece que virou “smart” e pra ser sincera, isso é uma falácia, afinal não é a IA que nos é vendida ou a que geralmente a gente imagina.
Diante desse cenário, é bom analisarmos o que a IA que temos hoje pode ou não fazer, o quão “inteligente” elas podem ser e principalmente, o porquê de a indústria de tecnologia estar tão ansiosa para colocar o rótulo de IA em absolutamente tudo que faz — ou diz fazer.
Leia mais posts do blog
A definição clássica de IA é um conjunto de tecnologias, de diferentes áreas, que permitem aos computadores executar funções avançadas, a partir da análise de dados, previsões, categorização de objetos, processamento de linguagem natural, recomendações, recuperação de dados e outros processos.
Mas quando pensamos em inteligência, ela é medida pela adaptabilidade no mundo, a capacidade de compreender e resolver novos problemas e conflitos e de adaptar-se a novas situações, além de uma faculdade de conhecer, compreender e aprender. A vida é inteligente, todos os organismos vivos têm essa inteligência.
É como Miguel Nicolelis, neurocientista brasileiro e que entende muito bem de cérebros que inspiraram os algoritmos de redes neurais (IAs), sempre diz em suas entrevistas, “a inteligência é uma propriedade emergente de organismos interagindo com o ambiente e com outros organismos”.
Basicamente, não há como algo artificial ser inteligente, afinal isso dependeria de uma interação com o mundo físico que os softwares ainda não têm. E a inteligência da vida, dos organismos, é totalmente orientada à sobrevivência, em um ambiente que está sempre mudando, e também se adaptando. A máquina não tem instinto de sobrevivência.
Se compararmos a inteligência humana então, bem, as IAs mal se aproximam de coisas fundamentais para formatar a nossa inteligência, desde emoções, experiências, moral, ética, empatia e mais um monte de coisas.
Da mesma forma, por mais que existam os algoritmos evolutivos, a evolução de seres vivos é um processo estocástico, aleatório, não dá pra programar ou gerar em laboratório, ou seja, a inteligência é bem mais complexa que uma rede neural sintética. E, de novo, a questão da vida, da sobrevivência, por mais que possa ser ensinada para as máquinas de forma lógica, ficará muito distante do que é isso na vida real.
Inteligência Artificial
O que a IA tem de vantagem em relação a nós é a capacidade de dar conta de uma enormidade de dados impossíveis para o cérebro humano e a uma velocidade muito maior que a nossa.
Sendo assim, a IA pode ser mais eficiente, em vários sentidos, mas muito menos otimizada que nosso cérebro, que tem milhares de anos de aperfeiçoamento, diante de uma tecnologia que não passa de 80 anos.
O que o nosso cérebro é capaz de fazer, com quase nada de energia, é absurdo. Uma criança consegue identificar um gato de forma muito mais otimizada e eficiente que uma IA, além de aprender isso muito mais rápido também.
E isso não tira em nada o mérito das redes neurais artificiais, a não ser pelo fato que elas não são tão artificiais assim. Existe um exército humano que tem que ficar rotulando, classificando tudo, para que os cálculos da IA deem certo (imaginem se esse pessoal resolver “trollar” esse treinamento). E as IAs são boas nisso, em calcular, computar, tanto que as existentes hoje apenas fazem isso muito bem, apesar de não terem noção do que estão fazendo. É simplesmente um bom cálculo do que pode vir depois, seja ele palavras, pixels de imagem e por aí vai.
Dentro dessa lógica, claramente é uma “inteligência” que não tem princípios morais, por exemplo. Por mais que tentemos ensinar ética, moral e verdade, são conceitos que permanecem nebulosos para nós, imagina para as máquinas. Sem o nosso supervisionamento, as IAs podem, de formas mais complexas e destruidoras, optar pelos melhores resultados sem nem pensar nas consequências.
Basta lembrar de uma das várias cenas emblemáticas do filme de Stanley Kubrick, “2001 – Uma Odisseia no Espaço“. Nela, o computador HAL (instalado na nave espacial Discovery e responsável por todo seu funcionamento) tinha a missão de chegar com a tripulação a um local. Ele executou a tarefa e o resultado foi atingido. Mas para isso acontecer, o processo foi trágico, pois HAL simplesmente não sabia, não foi avisado ou programado que, para atingir certos resultados não poderia ser a todo custo, colocando em risco a tripulação. Se HAL tivesse sido treinado para ter instinto de sobrevivência, teria funcionado?
Independentemente dessa questão, não podemos confiar na IA cegamente, afinal estamos lidando com probabilidades e elas não sabem se o que estão gerando está correto ou não. Da mesma forma que uma calculadora não sabe o que é matemática, as IAs não sabem o significado do que estão fazendo.
O termo inteligência artificial é bastante controverso, não sendo muito aceito por vários especialistas da área. Seu primeiro uso foi em uma conferência de Dartmouth, realizada em 1956, pelo professor de Stanford John McCarthy, que organizou a conferência.
Para conseguir financiamento do governo para um evento tão importante, ele precisava de um termo à altura para chamar a atenção.
Desde então, o termo tem sido amplamente utilizado. Mas quando falamos IA, hoje, estamos, na verdade, nos referindo ao que é classificado de Narrow AI ou Weak AI, que em português chamamos de Inteligência Artificial Limitada. Esse é o tipo mais básico de IA, que é especializada em apenas uma tarefa.
É o caso de um chatbot e do reconhecimento facial dos nossos celulares, que utilizam aprendizado de máquina (ML), e são algoritmos capazes de analisar padrões nos dados de treinamento, sejam eles texto, imagem, vídeo, áudio ou até mesmo números brutos.
Eles identificam padrões, por meio de probabilidade estatística, oferecem respostas e tomam decisões com o mínimo de participação humana. Para isso podem ser treinados por meio do reforço e recompensa. É quase como o treinamento que fazemos com animais, no qual corrigimos e “punimos” resultados incorretos. Sem entrar em detalhes nos quatro tipos de ML, o que importa nisso tudo é que esses algoritmos podem resumir, prever ou até mesmo gerar algo aparentemente novo e criativo.
Apesar de essas IAs estarem restritas a tarefas especializadas, como o GPT-4o, por ser um modelo de linguagem grande (LLM), o que lhe permite trabalhar com muitos dados, ele ainda continua sendo um preenchedor de palavras automático, ou uma calculadora de palavras. Está longe de pensar como os seres humanos. A diferença dele para modelos mais antigos, é que ele também pode processar informações com base em padrões aprendidos durante o treinamento, e por isso, o torna capaz de gerar resultados exclusivos que não faziam parte dos dados de treinamento. Mesmo sendo multimodal, ou seja, capaz de trabalhar com dados de diferentes naturezas, ainda são modelos incapazes de operar fora de seu nicho específico, além de serem limitados por seus dados de treinamento.
Tudo isso faz parecer que essas IAs que geram conteúdos novos, as chamadas inteligências artificiais generativas (GenAI), podem se tornar tão criativas quanto nós. Isso gera muita confusão, e muita gente diz que as IAs funcionam de forma parecida com a nossa, sendo inteligentes como nós. Mesmo trabalhando com referências, da mesma forma que nós, elas não pensam como nós, não possuem desejos e emoções para motivar ações ou decisões.
Elas simplesmente montam pixels ou palavras para corresponder ao que mais parece ser outros pixels e palavras corretas em seu vasto conjunto de dados, fazendo médias. Os humanos não criam assim, tendo intenções e propósito para o que fazemos, e toda influência que extraímos das referências existentes não é uma análise de pixels ou numérica, mas uma resposta emocional à forma como esse trabalho nos faz sentir, além das experiências passada e memória.
Por isso, a inteligência das IAs não é tão inteligente quanto parece, e nem toda IA tem algoritmos complexos como a GenAI. Tudo aqui é uma questão de probabilidade e quando esses modelos ditos generativos, por gerarem ou remixarem dados, se deparam com um conceito que não compreendem, ou simplesmente ficam sem identificação lógica, podem começar a ter alucinações, ou seja, os modelos simplesmente inventam probabilidades.
Se IA enquanto termo mais flerta com a farsa, a tal AGI é uma mentira. Mesmo que em alguns muitos anos isso seja possível, hoje não passa de uma tentativa de gerar pânico. Do inglês “Artificial General Intelligence”, a inteligência artificial geral é a tentativa teórica de que um dia as IAs possam adquirir capacidades cognitivas similares ou superiores à dos humanos. Basicamente uma IA poderia aprender, responder e raciocinar sobre tudo, mas agindo de uma forma humana.
No fim de 2023 a OpenAI deixou vazar que eles estavam trabalhando em um modelo novo chamado Q*, que poderia resolver problemas matemáticos formais, incluindo provar resultados matemáticos que o modelo nunca tinha sido treinado, ou seja, ele teria uma “lógica matemática”. Essa notícia causou, pois representaria mais um grande passo da área, e parecia um bom ponto de partida, afinal verdades matemáticas são provadas com lógica rígida, ou seja, não tem nuance de contexto como outras ciências ou áreas do conhecimento humano. Seria o início da era no qual as IAs conseguiriam pensar nas suas respostas, mas por enquanto estamos razoavelmente longe disso, pelo menos de forma segura.
Independentemente das tentativas e desejos para que se tenha uma AGI, eu tendo a achar que nada pode ser melhor que a natureza. Não dá pra saber como essa AGI poderia lidar com suas próprias experiências. Para uma AGI funcionar como um cérebro em sua completude, precisaria ser capaz de executar muitos modelos simultaneamente, treiná-los e iterá-los continuamente, além de realmente aprender e se adaptar a coisas novas, chegando bem perto da definição clássica de IA. Se um dia chegarmos a esse estágio, as fronteiras entre o aprendizado de máquina e a consciência de máquina desapareceriam. Por isso toda essa falação em torno desse medo construído tem um propósito, que nada tem a ver com uma verdadeira possibilidade próxima.
E no mundo da tecnologia esse tipo de coisas é bem constante. Quem aqui não se lembra das várias promessas de Elon Musk sobre a total autonomia dos carros? Segundo ele, todo carro da Tesla seria autônomo a partir de 2020. Apesar de algumas demos impressionantes, não existe nada que seja escalável, já que para uma IA operar um veículo com segurança não basta ser treinado com imagens de linhas pintadas no chão, cones de trânsito, semáforos, movimentos padrão de pedestres e dados de telemetria de veículos. Por mais que seja treinado em prever as manobras prováveis dos veículos próximos, as demonstrações não simulam a realidade do trânsito das grandes cidades e rodovias.
O mesmo para Mark Zuckerberg, quando apresentou o metaverso da Meta praticamente acabado e operando, mas que na verdade era só um vídeo bem feitinho. E claro, nas últimas apresentações das empresas que estão desenvolvendo suas IAs. Todas as vezes que eu tentei fazer exatamente a mesma coisa do que foi apresentado, me frustrava. E estamos vendo isso continuamente, seja no lançamento de dispositivos inteligentes como AI Pin e o Rabbit R1 ou na grande mentira que foi o Amazon Just Walk Out, que de IA não tinha nada. Era um monte de indianos que ficavam avaliando a compra dos usuários, e não um sistema inteligente.
Tecnologia é poder e poder é dinheiro. “Seguir o dinheiro” e entender a operacionalidade do mercado hoje é essencial para conseguirmos compreender essa “necessidade da IA” em todos os setores. O marketing excessivo é quase uma exigência do funcionamento do mercado, principalmente o de tecnologia, que é essencial para todas as outras áreas. Nada mais funciona sem alguma tecnologia digital. Por isso estamos nessa bagunça, como definições confusas e incontáveis promessas que transformaram a “inteligência artificial” em um termo da moda, quase sem sentido, justamente porque seu significado foi diluído com o uso excessivo. O mesmo rolou com metaverso, no qual qualquer mundo virtual passou a ser chamado de metaverso, mesmo não sendo.
O mais importante disso tudo é que esses termos, que se referem a tecnologias importantes, sérias e revolucionárias, acabam virando meio que qualquer coisa. E o pior, depois que a onda passa, um monte de gente fala mal dessas tecnologias, porque na verdade nunca souberam o que representam de verdade. Simplesmente entraram na onda do mercado, que geralmente não tem a ver com o real desenvolvimento científico e tecnológico dos mesmos. Se um dia, realmente, tivermos algo próximo a uma “cognição computacional” vamos ter que inventar outro termo, porque não vai dar pra chamar de inteligência artificial, seja ela fraca (weak ou narrow) ou não, que hoje é sinônimo de qualquer algoritmo de previsão estatística, e não um algoritmo inteligente de fato.
“Inteligência artificial” é um termo tão controverso quanto interessante, e essa é a magia do nome que damos às coisas. Gera tanto interesse por si só que nem preciso falar na tentação que é, para a maioria das pessoas, clicar em notícias e artigos que proferem que elas vão nos substituir e que podem extinguir os seres humanos.
Como Yann LeCun, que é VP e cientista-chefe de IA da Meta, disse: “A IA dominará o mundo? Não, esta é uma projeção da natureza humana nas máquinas”. Por isso é sempre bom desconfiar quando todo mundo estiver dizendo a mesma coisa.
Temos que saber diferenciar o hype do mercado do real desenvolvimento das coisas, assim como saber que uma apresentação de qualquer empresa pode estar bem exagerada. No fim, o maior desejo de tudo isso é fazer as empresas se valorizarem absurdamente e levar todo mundo que é esperto a comprar ações dessas empresas. Veja o caso da NVIDIA, avaliada em mais de US$ 1 trilhão porque agora tem foco em IA generativa.
Sempre tem umas formas mais descaradas de se fazer isso, como o Elon Musk que tuitava para fazer as ações de suas empresas dispararem (e era tudo mentira).
Sam Altman, conhecido como CEO da OpenAI, tá nessas porque antes foi o presidente da Y Combinator, a maior e mais prestigiada aceleradora de startups do mundo. Lá liderou o investimento de diversas empresas unicórnios, incluindo DoorDash, Airbnb, Reddit.
Não há dúvidas que o cara entende como o venture capital funciona, e tudo isso foi crucial para o sucesso do OpenAI, que deixou de ser uma organização sem fins lucrativos que realiza pesquisas de segurança em IA.
Falando nisso, pra quem não se lembra a OpenAI, e por isso o “open”, foi uma organização sem fins lucrativos enquanto isso era importante para conseguir capital, afinal estavam “preocupados” em beneficiar a humanidade, e por isso deveriam manter suas pesquisas sem as restrições da necessidade de gerar retornos financeiros.
A OpenAI se fechou, recebendo bilhões de dólares de uma das maiores empresas do mundo (Microsoft). E tem sido assim para todas as empresas: a palavra mágica para conseguir financiamento agora é IA. Daqui a pouco vai ser computação quântica e criptografia quântica e por aí vai. E não estou dizendo que essas tecnologias não são importantes ou incríveis. A questão é o exagero e a proliferação de “fake news” sobre elas ou produtos e serviços bem menos “smart” do que é falado ou vendido. Tudo isso sem falar no desespero que causa nas pessoas, já nunca seremos suficientemente medianos para nada.
Outra coisa que é bem importante é que, nesse mundo dos investimentos em startups, o sucesso não se baseia na qualidade da sua inovação ou do seu produto, mas sim com base em quanto de investimento você atraiu. Isso tem mudado, afinal acompanhamos muitas mentiras horríveis e chegamos a idolatrar muita gente errada. Mas a retórica do crescimento e investimento permanece, e a discussão sobre segurança e ética na IA, apesar de estarem no discurso, estão longe de serem prioridade. No fim são homens bilionários (nem vou completar as outras características…) competindo entre si para ter o monopólio da IA, ou da narrativa tecnológica da AI.
E quando tudo fica só na briga, quem realmente entende das coisas, já começa a ter outro olhar, já que os números parecem contradizer o otimismo das Big Techs, que seja para mudar ou destruir o mundo. Até mesmo jornais especializados em mercado e negócios, já começam a manifestar ceticismo e o risco de bolha, como Financial Times e o Wall Street Journal.
Claro que as ferramentas de IA que vemos hoje são as mais poderosas desenvolvidas na última década e representam um verdadeiro ápice de todo o conhecimento humano. Mas não são capazes de tudo, e existe muita confusão e desinformação sobre quais são os limites reais dessa tecnologia.
O fetiche e o não computável
Pra finalizar, é importante ratificar que existe um limite da lógica digital, binária. Nem todos os fenômenos são computáveis, principalmente os que rolam na nossa cabeça e fazer surgir consciência, intuição, criatividade e inteligência.
Sejamos realistas. A IA está ajudando muita gente, principalmente quem aceita conteúdos ainda bem padronizados, gerados a partir de prompts também já padronizados. Tem muita coisa incrível acontecendo, mas nada que se compare à criatividade humana ou a inteligência humana. A IA já é ótima para nos ajudar em tarefas chatas do dia-a-dia, como fazer atas de reuniões, resumos, imagens divertidas e lindas. Tá, mais do que isso, quando se é uma empresa que pode usar os dados dos seus clientes. Mas repito: um bom escritor que vá usar o ChatGPT para escrever um romance, ou um bom desenvolvedor que queira automatizar scripts complexos, vai sofrer. Talvez em pouco tempo isso não aconteça mais, mas também nossa exigência será outra (limitada).
Desde que comecei a estudar IA, meu interesse por processamento de linguagem natural (NLP) só aumenta. Pra quem também tem interesse, aconselho ler alguns artigos de Emily Bender e Alexander Koller pra entender o quão direcionado é tudo isso que nos encanta. Da mesma forma, se nos acostumarmos ao que recebemos das IAs, realmente poderemos ter problemas. Em um dos seus artigos, o “Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data”, eles já descreviam as limitações dos LLMs, antes mesmo do boom do ChatGPT no final de 2022. Não vou entrar em detalhes do que é o famoso “teste do polvo”, mas pra quem quiser se aventurar na leitura vai encontrar novas formas de interpretar toda essa narrativa em que estamos imersos. Vale lembrar do que um papagaio é capaz. Não interessa se é texto, imagem ou vídeo, por mais preciso que sejam nossos prompts, a máquina jamais terá nosso contexto de vida e experiência. Vai preencher bem, palavra por palavra, pixel por pixel, e gerar tudo cada vez mais próximo das nossas expectativas. Vai nos confundir, criar novas realidades e a confiança que é uma das principais bases das relações humanas, será completamente modificada, ou arrasada.
Infelizmente, tem muita gente feliz com esse controle de narrativas. E esses terão cada vez mais dinheiro para fazer o que quiserem com elas. E esqueçam a historinha dos CEOs de que a IA irá beneficiar toda a humanidade. IA é uma tecnologia incrível, mas no fim somos nós que pagamos a conta para que a IA permita que as empresas cresçam mais rápido e construam experiências mais personalizadas, até escolherem tudo para nós e cobrando uma assinatura bem cara para isso.
Apple ultrapassa Microsoft como empresa mais valiosa do mundo
[*] – Fonte: https://www.cnnbrasil.com.br/