A arte de não pensar (e como a IA facilita isso)
Publicado em
Lendo notícias, navegando na internet e observando como as pessoas interagem com a tecnologia, me dei conta de como nossa relação com o conhecimento vem mudando. Houve um tempo em que a principal referência eram as enciclopédias impressas. Depois vieram os CD-ROMs, que já pareciam uma revolução. Com a internet, passamos a acessar todo tipo de informação com poucos cliques, e o Google se tornou nossa fonte suprema de informações. Aos poucos, assistentes digitais como a Siri, a Alexa, a Cortana (sim, aquela da Microsoft inspirada na personagem de Halo) começaram a intermediar esse acesso ao saber.
Mais recentemente, com o avanço dos chatbots e modelos de linguagem, surge uma nova tendência: em vez de buscar diretamente, muitos passaram a simplesmente perguntar. Uma dúvida que antes levaria a uma investigação, leitura e comparação de fontes, agora é respondida por uma IA em segundos. É rápido, prático, eficiente. Mas será que não estamos abrindo mão de algo importante nesse processo?
Não sou especialista no assunto, mas tenho pensado bastante nisso ultimamente, talvez até mais do que gostaria. Ao terceirizar nossas buscas e pesquisas, estamos, aos poucos, deixando de exercitar o pensamento crítico. O cérebro vai se acostumando a não precisar se esforçar, e isso tem um preço. Seja na hora de estudar para uma prova, resolver um cálculo matemático ou tirar dúvidas de programação, muitas vezes optamos por recorrer diretamente à IA, não apenas como apoio, mas como solução principal. Com o tempo, essa prática vai apagando o hábito de investigar por conta própria, de formular hipóteses, de aprender com o processo, mesmo que dê mais trabalho.
Estudos sobre esse fenômeno mostram que o uso excessivo de IA pode levar à redução do engajamento mental e enfraquecimento de habilidades como memória, raciocínio e julgamento. Um estudo com mais de 600 participantes mostrou que quem mais usava ferramentas de IA apresentava pior desempenho em testes de pensamento crítico. Além disso, experimentos realizados no MIT revelaram menor atividade cerebral em pessoas que escreviam textos com o apoio do ChatGPT, especialmente em áreas ligadas à memória e controle executivo. Elas também relataram menor sensação de autoria e dificuldade em lembrar o conteúdo produzido.
No dia a dia, isso vira uma preguiça mental mesmo. A gente deixa de quebrar a cabeça, de tentar entender as coisas por conta própria, e só aceita a resposta que aparece ali na tela. E é aí que a coisa complica de verdade.
Confiar cegamente nas IAs é abrir a porta pra desinformação sem nem perceber. Esses modelos geram textos que parecem super confiantes, mesmo quando estão cheios de erros ou inventam coisas do nada. E aí o risco é real: a gente pode acabar tomando decisões erradas ou formando opinião baseada em informação errada. E não é só teoria! já teve advogado usando petição com caso jurídico que nem existia, tudo criado por IA. Estudante entregando trabalho com referência inventada também.
E mesmo quando a resposta parece certa, ainda tem um outro detalhe importante: pode estar passando por um filtro. IAs não existem no vazio, elas acabam absorvendo as ideias, os interesses e as visões de mundo de quem constrói, treina e paga por elas. Isso aparece nas fontes que escolhem usar, nos assuntos que evitam e até no jeitinho que apresentam certas ideias como se fossem verdades absolutas. E olha, às vezes o que elas não dizem fala até mais alto do que o que dizem. Dois exemplos ajudam a mostrar como isso aparece na prática:
-
O Grok, chatbot da xAI (empresa de Elon Musk), foi flagrado consultando postagens do próprio Musk ao responder perguntas controversas. Isso levanta questionamentos sobre a imparcialidade da ferramenta, que pode ecoar as opiniões do seu criador como se fossem respostas objetivas. Você pode ver o chat aqui.
-
O DeepSeek, desenvolvido na China, evita tópicos sensíveis ao governo, como o massacre da Praça da Paz Celestial ou a independência de Taiwan. Ao ser questionado se Taiwan é um país, por exemplo, responde com o discurso oficial do Partido Comunista Chinês, sem apresentar outras perspectivas.
Esses casos mostram como podemos acabar expostos a narrativas enviesadas sem nem perceber, simplesmente porque deixamos de questionar o que nos é mostrado. Quando a resposta chega fácil, automática e com um ar de confiança, a tendência é aceitar, mesmo que algo ali não pareça tão certo. A gente perde a sensibilidade para o contraditório, para os detalhes que fazem a diferença, e vai se acostumando com essa sensação de que não precisa pensar muito. Com o tempo, isso afeta nossa capacidade de perceber quando uma ideia é parcial, quando um dado foi omitido ou quando só estão nos mostrando um lado da história.
A coisa vai acontecendo aos poucos: pela comodidade, a gente recorre cada vez mais à IA. Isso faz com que, sem perceber, a gente vá exercitando menos o pensamento crítico. Com o tempo, as respostas vão sendo aceitas com menos resistência, como se estivessem sempre certas, e aí mora o perigo. Nesse ritmo, acabamos nos tornando mais vulneráveis a erros, omissões, manipulações… ou até censura.
Não tô dizendo que a gente tem que rejeitar a tecnologia, longe disso. Eu mesmo uso IA o tempo todo. Mas é importante não desligar o nosso senso de curiosidade, nem aquele olhar meio desconfiado que pergunta: “será que é isso mesmo?”. Pensar dá trabalho, mas também é o que garante que a gente siga escolhendo, decidindo, entendendo o mundo por conta própria. Se a gente entrega tudo de bandeja pros algoritmos, corre o risco de deixar que eles pensem por nós.
hacktivismo liberdade-digital desobediencia-civil ativismo-digital cultura-hacker política tecnologia democracia fake-news discurso-de-ódio