“Inteligência artificial não é inteligência”
Desde que a inteligência artificial se popularizou fora dos círculos técnicos, uma narrativa passou a dominar o imaginário coletivo: máquinas estariam aprendendo, pensando e, em algum momento, superando o ser humano. Para Fernando Giannini, pesquisador em tecnologia educacional e estudioso de IA há mais de vinte anos, essa narrativa começa em um erro básico — o nome.
“Não é inteligência”, afirma logo no início da conversa que inaugurou o quadro JG Comunica, no podcast JG TV. “É um sistema de reconhecimento de padrões.” A frase, simples à primeira vista, desmonta boa parte do fascínio e do medo que cercam a tecnologia.
Giannini recupera a origem histórica do conceito, remetendo ao artigo de Alan Turing, de 1950, no qual a pergunta central não era se máquinas pensam, mas se conseguem imitar o pensamento humano. “O teste de Turing sempre foi sobre imitação. A máquina passou no teste porque imita bem a linguagem, não porque entende.”
A confusão semântica, no entanto, tem consequências práticas. Quando se atribui inteligência à máquina, projeta-se nela autonomia, intencionalidade e neutralidade — atributos que ela não possui. “Não existe IA sem viés”, afirma Giannini. “Ela nasce enviesada porque nasce de dados humanos, históricos, sociais.”
Ao longo da entrevista, o especialista desmonta a ideia de que máquinas “aprendem sozinhas”. Todo modelo de linguagem é resultado de bilhões — ou trilhões — de parâmetros definidos por pessoas, empresas e interesses específicos. A sensação de autonomia é uma ilusão produzida pela fluidez da linguagem.
Esse ponto se torna ainda mais delicado quando a IA passa a mediar relações humanas, produção de conhecimento e circulação de informação. “O problema não é a máquina responder bem”, diz Giannini. “O problema é o ser humano parar de pensar porque a resposta veio pronta.”
A conversa avança, então, para um terreno sensível: o impacto da IA no jornalismo. Em um ecossistema já pressionado por velocidade, custo e competição por atenção, a automação surge como solução tentadora. Mas Giannini alerta para o risco de confundir eficiência com qualidade.
“Escrever não é só produzir texto”, afirma. “É um processo cognitivo complexo: ler, relacionar, errar, revisar, amadurecer.” Quando esse processo é terceirizado, perdem-se habilidades que não são imediatamente visíveis — mas são estruturantes.
A entrevista não propõe rejeição à tecnologia, mas lucidez. “A IA pode ampliar capacidades humanas”, conclui Giannini. “O problema começa quando ela passa a substituí-las sem reflexão.”
Assista ao episódio completo
IA no jornalismo: automação sem autoria e o risco de uma informação opaca
O jornalismo sempre foi atravessado por tecnologia. Da prensa à internet, cada inovação redefiniu rotinas, formatos e linguagens. A inteligência artificial, porém, introduz uma ruptura mais profunda: ela não apenas acelera processos — ela simula autoria.
Na entrevista ao JG Comunica, Fernando Giannini chama atenção para um ponto raramente discutido com clareza: a opacidade. “Hoje, você não sabe por que a IA respondeu daquele jeito”, afirma. “Nem de onde vieram os dados, nem quais critérios foram usados.”
Esse problema se torna crítico quando a IA entra no fluxo de produção jornalística. Ferramentas de transcrição, estruturação de texto e até geração de matérias já fazem parte da rotina de redações. O uso, em si, não é o problema. A falta de transparência, sim.
Giannini é categórico ao falar de autoria. Textos produzidos integralmente por IA, mesmo que revisados por humanos, não deveriam ser assinados sem explicitação do processo. “O leitor tem direito de saber como aquele conteúdo foi produzido”, defende.
Além da autoria, há a questão do viés. Modelos de linguagem são treinados majoritariamente com dados produzidos no Norte Global, reproduzindo visões eurocentradas, padrões culturais específicos e assimetrias de poder. Para países como o Brasil, isso significa consumir narrativas filtradas por interesses externos.
A situação se agrava com a lógica de plataformas. Algoritmos de SEO, métricas de engajamento e testes de performance já moldam a produção de notícias há anos. A IA apenas acelera esse processo, empurrando o jornalismo para uma homogeneização ainda maior.
Outro ponto crítico é a checagem de fatos. Giannini lembra que sistemas de IA “alucinam” — inventam dados, autores, links e referências. “Não dá para confiar em nenhuma busca feita por IA sem verificação humana”, alerta.
Para ele, o caminho não é abandonar a tecnologia, mas reconfigurar seu uso. Veículos deveriam desenvolver modelos próprios, alinhados à sua ética editorial, com sistemas explicáveis, auditáveis e passíveis de correção. Algo distante da lógica atual das big techs.
Sem isso, o risco é claro: produzir mais conteúdo, mais rápido — e com menos responsabilidade.
O conforto das respostas prontas: quando pensar vira um esforço opcional
Pensar dá trabalho. Exige tempo, confronto interno e gasto de energia cognitiva. A inteligência artificial surge, nesse cenário, como uma promessa silenciosa: aliviar esse esforço. Para Fernando Giannini, esse é o ponto mais delicado da relação entre humanos e máquinas.
“O cérebro humano sempre busca gastar menos energia”, explica. “Quando surge uma ferramenta que responde rápido, a tendência natural é usá-la.” O problema não é a ferramenta — é o que se perde no caminho.
Escrever, estudar, interpretar dados, construir argumentos: tudo isso envolve um processo que a IA encurta. O resultado pode parecer eficiente, mas o aprendizado é raso. “Você passa a editar respostas em vez de construir pensamento”, afirma Giannini.
Essa lógica não afeta apenas jornalistas ou estudantes. Ela atravessa a forma como nos relacionamos com informação, autoridade e até afeto. Pessoas fazem terapia com chatbots, se apegam a personas artificiais e confiam em respostas sem questionamento. Não porque acreditam plenamente — mas porque não se importam em verificar.
Giannini chama esse fenômeno de “bálsamo linguístico”: a sensação de acolhimento produzida por uma linguagem fluida, ainda que vazia de contexto e responsabilidade. “A máquina não entende nada do que diz”, lembra. “Mas soa convincente.”
O risco maior, nesse cenário, não é tecnológico — é humano. É a gradual terceirização do pensamento crítico, da dúvida e da autoria. Em troca de conforto, abre-se mão de autonomia intelectual.
No fim da conversa, a questão deixa de ser sobre o futuro da inteligência artificial e passa a ser sobre o futuro das pessoas. “A tecnologia diz menos sobre o que ela é capaz de fazer”, reflete Giannini, “e mais sobre o quanto estamos dispostos a não fazer.”
Talvez o desafio do nosso tempo não seja ensinar máquinas a pensar, mas preservar o desejo humano de continuar pensando.


Publicar comentário