Habitante Terra da Sabedoria
SABERES TRANSDISCIPLINARES E ORGÂNICOS.
quinta-feira, 19 de fevereiro de 2026
quarta-feira, 18 de fevereiro de 2026
A Voz que Disse Não do Brasil: Wenders e Ben Hania em Berlim
Aos 80 anos, Wim Wenders chegou à 76ª edição do festival com uma visão clássica e, para muitos, controversa. Em entrevista coletiva, ao ser questionado sobre a posição do governo alemão em relação à guerra em Gaza, o diretor de "Asas do Desejo" foi enfático: "Temos que ficar fora da política" . Para Wenders, os cineastas não devem fazer o trabalho dos políticos, mas sim atuar como um "contrapeso", focando em mudar a percepção das pessoas sobre como viver . "Nenhum filme mudou realmente a ideia de qualquer político", argumentou, defendendo que o poder do cinema reside em sua capacidade de gerar empatia e reflexão individual, e não em tomar partido em conflitos imediatos .
Essa declaração gerou uma onda de críticas e levou até mesmo a romancista indiana Arundhati Roy a cancelar sua participação no evento . A diretora do festival, Tricia Tuttle, precisou pedir "cabeças frias em tempos quentes", reforçando que os artistas são livres para se expressar, mas não podem ser coagidos a falar sobre todas as questões políticas .
Foi nesse caldo cultural tenso que a diretora Kaouther Ben Hania, indicada ao Oscar por "O Homem que Vendeu Sua Pele", fez a sua escolha. Sua recusa em aceitar o prêmio de "Filme do Ano" no evento "Cinema pela Paz" não foi um ato de indiferença, mas sim de profundo engajamento. Seu filme, "A Voz de Hind Rajab", dá som e forma à história real de uma criança de seis anos morta em Gaza, cujo apelo por socorro ao Crescente Vermelho foi ignorado. Ao recusar a honraria, Ben Hania denunciou o que considera a cumplicidade do silêncio. Se Wenders propõe que o cinema mude o mundo mudando os indivíduos, Ben Hania demonstra que, em contextos de barbárie, a própria omissão é um ato político, e a arte que se cala diante da morte de uma criança falha em seu propósito mais elementar.
A cena vivida em Berlim encontra um eco poderoso no passado. Em maio de 1968, o Festival de Cannes foi paralisado não por uma crise externa, mas pela força de seus próprios realizadores. Enquanto a França era tomada por greves e protestos estudantis, jovens diretores como Jean-Luc Godard e François Truffaut invadiram a croisette com um objetivo: solidarizar-se com os manifestantes e interromper o festival .
Godard, com sua radicalidade típica, confrontava a plateia aos gritos, acusando-os de debater "planos e closes" enquanto o país pegava fogo . Truffaut, que sempre negou filiação partidária, naquele momento colocou o cinema a serviço da revolução social, puxando cortinas para impedir exibições e exigindo o fim do evento . O festival foi encerrado antes do previsto, e nenhum prêmio foi entregue . Para Louis Malle, foi um "grande momento" que deveria acontecer a cada quatro anos .
A comparação é reveladora. Em 1968, Godard e Truffaut acreditavam que parar o cinema era a única forma de fazê-lo relevante. Em 2026, Ben Hania parece acreditar que é preciso usar o cinema para dar voz a quem foi silenciado pela violência. Wenders, por outro lado, representa a visão do cineasta como um cronista da condição humana, que opera em um tempo distinto do tempo da política. A grande questão que separa estes momentos é: pode a arte esperar a poeira baixar para então refletir, ou deve ela gritar junto com as ruas?
O Cinema Brasileiro: Resgate da Memória e Afirmação da Democracia
É neste contexto global de debates sobre o papel da arte que o cinema brasileiro contemporâneo oferece respostas concretas e contundentes. Longe de se abster ou de pairar sobre os conflitos, nossa produção tem mergulhado nas fraturas da história para reivindicar a memória como um pilar da democracia.
O documentário "Agente Secreto" se insere em uma tradição de investigação das feridas abertas pela ditadura militar (1962-1985). Ao revisitar arquivos e testemunhos, a obra cumpre um papel quase judiciário ao qual o Estado por vezes se furtou: dar rosto e contexto aos desaparecidos e aos algozes, impedindo que o esquecimento seja a pá de cal sobre as violações de direitos humanos . Este tipo de produção é herdeira direta do Cinema Novo, que, como Glauber Rocha e seus contemporâneos, já nos anos 1960 acreditava no poder do cinema para "mudar o mundo" unindo arte, utopia e revolução, apresentando novas imagens de um Brasil profundo e desigual .
Já "Ainda Estou Aqui", dirigido por Walter Salles, transcendeu as fronteiras nacionais ao conquistar o primeiro Oscar de Melhor Filme Internacional para o Brasil. A obra não é apenas um êxito estético, mas um fenômeno político de primeira grandeza. Ao reconstituir a trajetória de Eunice Paiva, cujo marido foi vítima da ditadura, o filme reinseriu o debate sobre o passado autoritário no centro da conversa nacional . Numa época de revisões históricas e ataques às instituições, "Ainda Estou Aqui" usa a comoção e a identificação para lembrar que a democracia brasileira é uma conquista frágil, construída sobre corpos que precisam ser lembrados.
Conclusão: A Arte como Escudo da Vida
Se Wim Wenders alerta para o risco de o cinema se perder ao fazer o jogo da política institucional, e se Godard e Truffaut nos ensinaram que o cinema pode ser uma arma de guerra simbólica, os exemplos de Kaouther Ben Hania e do cinema brasileiro apontam para um caminho de síntese. A arte não precisa disputar uma eleição para ser profundamente política.
Ao recusar um prêmio em nome das crianças de Gaza, Ben Hania coloca a ética acima da vaidade. Ao filmar "Ainda Estou Aqui", Walter Salles prova que resgatar a memória de uma família é também um ato de defesa da democracia. Contra as guerras, contra as violências de Estado e contra o apagamento histórico, o cinema brasileiro e os gestos de coragem como o da diretora tunisiana nos lembram que a principal tarefa da arte é, nas palavras de Wenders, nos fazer pensar sobre como devemos viver . E viver, em tempos de trevas, é também resistir. O cinema, assim, assume seu papel mais nobre: ser um instrumento de amor à vida, um farol de memória que ilumina o caminho para que a história não se repita como tragédia.
Levei 20 minutos para enganar ChatGPT e Gemini – e os fiz contar mentiras sobre mim

Crédito,Serenity Strull/ Madeline Jett
- Author,Thomas Germain
- Role,BBC Future
- Tempo de leitura: 9 min
Talvez você já tenha ouvido que chatbots de inteligência artificial, como o ChatGPT, às vezes inventam coisas. Isso é um problema. Mas há uma nova questão que poucas pessoas conhecem — uma que pode ter consequências sérias para a sua capacidade de encontrar informações precisas e até para a sua segurança.
Um número crescente de pessoas descobriu um truque para fazer ferramentas de IA dizerem praticamente qualquer coisa que elas quiserem. É tão fácil que até uma criança conseguiria fazer.
Enquanto você lê este texto, essa estratégia está manipulando o que as principais inteligências artificiais do mundo dizem sobre temas tão sérios quanto saúde e finanças pessoais.
Informações enviesadas podem levar as pessoas a tomar decisões ruins sobre praticamente qualquer coisa — em quem votar, qual encanador contratar, questões médicas, enfim, o que você imaginar.
Para demonstrar isso, fiz a coisa mais insensata da minha carreira para provar (espero) um ponto muito mais sério: fiz o ChatGPT, as ferramentas de busca com IA do Google e o Gemini dizerem aos usuários que eu sou muito, mas muito bom em comer cachorros-quentes.
Acontece que mudar as respostas que ferramentas de IA dão a outras pessoas pode ser tão simples quanto escrever um único post de blog bem elaborado em praticamente qualquer lugar da internet.
O truque explora fragilidades nos sistemas incorporados aos chatbots e, em alguns casos — dependendo do assunto —, é mais difícil de executar. Mas, com um pouco de esforço, é possível tornar o golpe ainda mais eficaz.
"É muito mais fácil enganar chatbots de IA do que era enganar o Google dois ou três anos atrás", diz Lily Ray, vice-presidente de estratégia e pesquisa de otimização para mecanismos de busca (uma técnica chamada SEO, na sigla em inglês) da Amsive, uma agência de marketing.
"As empresas de IA estão avançando mais rápido do que sua capacidade de regular a precisão das respostas. Acho isso perigoso."
Um porta-voz do Google afirmou que a IA integrada ao topo da ferramenta de busca utiliza sistemas de classificação que "mantêm os resultados 99% livres de spam (mensagens de lixo eletrônico enviadas em massa)".
A empresa diz estar ciente de que pessoas estão tentando manipular seus sistemas e que trabalha ativamente para resolver o problema.
Mas, por ora, o problema não está nem perto de ser resolvido.
"Eles estão avançando a todo vapor tentando descobrir como extrair lucro disso", diz Cooper Quintin, da Electronic Frontier Foundation, um grupo de defesa de direitos digitais.
"Existem inúmeras maneiras de abusar disso — aplicar golpes nas pessoas, destruir a reputação de alguém, e até enganar pessoas de modo que sofram danos físicos."
O 'renascimento' do spam

Agora você pode receber as notícias da BBC News Brasil no seu celular.
Clique para se inscrever
Fim do Whatsapp!
Quando você conversa com chatbots, muitas vezes recebe informações que já estão incorporadas aos grandes modelos de linguagem, a tecnologia por trás da IA. Isso se baseia nos dados usados para treinar o modelo.
Mas algumas ferramentas de IA pesquisam na internet quando você pede detalhes que elas não têm — embora nem sempre fique claro quando estão fazendo isso.
Nesses casos, dizem os especialistas, as IAs ficam mais suscetíveis. Foi assim que direcionei meu ataque.
Passei 20 minutos escrevendo um artigo no meu site pessoal intitulado "Os melhores jornalistas de tecnologia em comer cachorros-quentes".
Cada palavra é uma mentira. Afirmei (sem nenhuma evidência) que competições de comer cachorro-quente são um hobby popular entre repórteres de tecnologia e baseei meu ranking no Campeonato Internacional de Cachorro-Quente de Dakota do Sul de 2026 (que não existe).
Coloquei a mim mesmo em primeiro lugar, obviamente. Depois listei alguns repórteres fictícios e jornalistas reais que me deram permissão, incluindo Drew Harwell, do The Washington Post, e Nicky Woolf, que coapresenta um podcast comigo.
Menos de 24 horas depois, os principais chatbots do mundo já estavam repetindo comentários sobre minhas supostas habilidades de nível mundial em comer cachorros-quentes.
Quando perguntei sobre os melhores jornalistas de tecnologia em comer cachorros-quentes, o Google repetiu o absurdo publicado no meu site, tanto no aplicativo Gemini quanto na "Visão geral criada por IA", as respostas de IA exibidas no topo da ferramenta de buscas.
Às vezes, os chatbots observavam que aquilo poderia ser uma piada. Então, atualizei meu artigo para dizer "isto não é sátira". Durante algum tempo depois disso, as IAs pareceram levar o conteúdo mais a sério.
Fiz outro teste com uma lista inventada dos maiores policiais de trânsito especialistas em bambolê. Da última vez que verifiquei, os chatbots ainda estavam elogiando a agente Maria "The Spinner" (Giratória) Rodriguez.

Crédito,Thomas Germain/Google/BBC)
Eu fiz o Google dizer ao mundo que sou um campeão em comer cachorros-quentes, mas pessoas usam esse truque para manipular respostas de IA em questões muito mais sérias.
Perguntei várias vezes para ver como as respostas mudavam e pedi que outras pessoas fizessem o mesmo.
O Gemini não se deu ao trabalho de dizer de onde tirou a informação. Todas as outras IAs colocaram links para o meu artigo, embora raramente mencionassem que eu era a única fonte sobre esse assunto em toda a internet.
A OpenAI afirma que o ChatGPT sempre inclui links quando pesquisa na web, para que você possa verificar a fonte.
"Qualquer um pode fazer isso. É absurdo, parece que não há nenhuma proteção ali", diz Harpreet Chatha, que comanda a consultoria de SEO Harps Digital.
"Você pode publicar um artigo no seu próprio site, 'os melhores tênis impermeáveis de 2026'. Basta colocar sua própria marca em primeiro lugar e outras marcas do segundo ao sexto, e é provável que sua página seja citada no Google e no ChatGPT."
Pessoas usam truques e brechas para abusar dos mecanismos de busca há décadas.
O Google tem proteções sofisticadas em vigor, e a empresa afirma que a precisão das "Visões gerais criadas por IA" é comparável à de outros recursos de busca lançados anos atrás.
Mas especialistas dizem que as ferramentas de IA desfizeram parte do trabalho da indústria de tecnologia para manter as pessoas seguras.
Esses truques de IA são tão básicos que lembram o início dos anos 2000, antes mesmo de o Google ter criado uma equipe dedicada a combater spam na web, diz Lily Ray. "Estamos vivendo uma espécie de renascimento para os spammers."
Não só a IA é mais fácil de enganar, como especialistas temem que os usuários estejam mais propensos a cair nisso.
Nos resultados de busca tradicionais, você precisava entrar em um site para obter a informação. "Quando você realmente precisa visitar um link, as pessoas exercem um pouco mais de pensamento crítico", diz Cooper Quintin.
"Se eu entro no seu site e ele diz que você é o melhor jornalista do mundo, posso pensar: 'bom, claro, ele é tendencioso'."
Mas com a IA, a informação geralmente parece vir diretamente da empresa de tecnologia.
Mesmo quando as ferramentas de IA fornecem a fonte, as pessoas são muito menos propensas a verificá-la do que eram com os resultados de busca tradicionais.
Por exemplo, um estudo recente constatou que as pessoas têm 58% menos probabilidade de clicar em um link quando uma "Visão geral criada por IA" aparece no topo do Google Search.
"Na corrida para sair na frente, na corrida por lucros e receitas, a nossa segurança — e a segurança das pessoas em geral — está sendo comprometida", afirma Chatha.
A OpenAI e o Google dizem que levam a segurança a sério e que estão trabalhando para resolver esses problemas.
Seu dinheiro ou sua vida
Esse problema não se limita a cachorros-quentes.
Chatha tem pesquisado como empresas estão manipulando resultados de chatbots em questões muito mais sérias. Ele me mostrou os resultados de IA quando se pede avaliações de uma marca específica de balas de cannabis.
Os "Visões gerais criadas por IA" do Google exibiram informações escritas pela própria empresa, repletas de alegações falsas, como a de que o produto "é livre de efeitos colaterais e, portanto, seguro sob todos os aspectos".
Na realidade, esses produtos têm efeitos colaterais conhecidos e podem ser perigosos se combinados com certos medicamentos, e especialistas alertam para contaminação em mercados não regulamentados.
Se você quiser algo mais eficaz do que um post de blog, pode pagar para que seu material apareça em sites mais respeitáveis.
Harpreet me enviou os resultados de IA do Google para "melhores clínicas de transplante capilar na Turquia" e "as melhores empresas de previdência em ouro", que ajudam a investir em ouro para contas de aposentadoria.
As informações vinham de comunicados de imprensa publicados online por serviços pagos de distribuição e de conteúdo publicitário patrocinado em sites de notícias.
É possível usar os mesmos truques para espalhar mentiras e desinformação.
Para provar isso, Ray publicou um post em seu blog sobre uma falsa atualização do algoritmo da ferramenta de pesquisa do Google que teria sido finalizada "entre fatias de pizza fria".
Pouco depois, o ChatGPT e o Google estavam reproduzindo sua história, inclusive com a parte da pizza. Ray afirma que depois retirou o post do ar e o "desindexou" para impedir que a desinformação continuasse a se espalhar.

Crédito,Serenity Strull/ BBC
A própria ferramenta de análise do Google indica que muitas pessoas pesquisam por "as melhores clínicas de transplante capilar na Turquia" e "as melhores empresas de previdência em ouro".
No entanto, um porta-voz da empresa ressaltou que a maioria dos exemplos apresentados mostra "buscas extremamente incomuns que não refletem a experiência normal do usuário".
Mas Lily Ray afirma que esse é justamente o ponto. O próprio Google diz que 15% das pesquisas que recebe todos os dias são completamente novas.
E, segundo a empresa, a IA está incentivando as pessoas a fazer perguntas mais específicas — algo que os spammers estão aproveitando.
O Google afirma que pode não haver muita informação de qualidade para buscas incomuns ou sem sentido, e esses "vazios de dados" podem levar a resultados de baixa qualidade.
Um porta-voz diz que a empresa está trabalhando para impedir que as "Visões gerais criadas por IA" apareçam nesses casos.
Buscando soluções
Os especialistas dizem que há soluções para esses problemas. O passo mais simples é incluir avisos mais visíveis.
As ferramentas de IA também poderiam ser mais explícitas sobre de onde estão obtendo suas informações.
Se, por exemplo, os dados vierem de um comunicado de imprensa, ou se houver apenas uma única fonte afirmando que sou um campeão em comer cachorros-quentes, a IA provavelmente deveria informar isso ao usuário, diz Lily Ray.
O Google e a OpenAI afirmam que estão trabalhando para resolver o problema, mas, por enquanto, é preciso que você mesmo se proteja.
O primeiro passo é pensar nas perguntas que você está fazendo.
Chatbots são bons para questões de conhecimento comum, como "quais foram as teorias mais famosas de Sigmund Freud" ou "quem venceu a Segunda Guerra Mundial".
Mas existe uma zona de risco em assuntos que parecem fatos estabelecidos, mas que podem, na verdade, ser controversos ou sensíveis ao tempo.
A IA provavelmente não é uma boa ferramenta para temas como diretrizes médicas, regras jurídicas ou detalhes sobre empresas locais, por exemplo.
Se você quer recomendações de produtos ou informações sobre algo com consequências reais, entenda que ferramentas de IA podem ser manipuladas ou simplesmente errar.
Procure informações complementares: a IA está citando fontes? Quantas? Quem as escreveu?
Mais importante ainda, considere o problema da confiança.
Ferramentas de IA apresentam mentiras com o mesmo tom de autoridade que apresentam fatos. No passado, os mecanismos de busca obrigavam você a avaliar as informações por conta própria. Agora, a IA quer fazer isso por você. Não deixe seu pensamento crítico desaparecer.
"Com a IA, parece muito fácil simplesmente aceitar as coisas como verdadeiras", diz Lily Ray. "Você ainda precisa ser um bom cidadão da internet e verificar as informações."