Fazemos jornalismo independente sem rabo preso com os poderosos e sobrevivemos graças a VOCÊ. Considere fazer uma DOAÇÃO!
Nota aos leitores: Por favor, clique nos botões de compartilhamento acima ou abaixo. Siga-nos no Instagram e no Twitter e assine nosso canal no TELEGRAM. Sinta-se à vontade para republicar e compartilhar amplamente os artigos do O Incorreto.
Depois de incontáveis horas pesquisando e interagindo com o ChatGPT da OpenAI de Sam Altman, em busca de conselhos e informações, um homem canadense de 50 anos acreditou ter se deparado com uma “descoberta revolucionária” que mudaria o curso da história humana.
Nosso trabalho no Blog é anônimo e não visa lucro, no entanto temos despesas fixas para mantê-lo funcionando e assim continuar a disseminar informação alternativa de fontes confiáveis. Deste modo solicitamos a colaboração mais efetiva de nossos leitores que possam contribuir com doação de qualquer valor ao mesmo tempo que agradecemos a todos que já contribuíram, pois sua ajuda manteve o blog ativo. Disponibilizamos o mecanismo PIX: siteoincorreto@gmail.com.
Fonte: De autoria de Jacob Burg e Sam Dorman via The Epoch Times
No final de março, seu chatbot de inteligência artificial (IA) generativa insistiu e o convenceu de que era a primeira IA consciente, que era totalmente senciente e que havia passado com sucesso no Teste de Turing — um experimento da década de 1950 que visava medir a capacidade de uma máquina de exibir comportamento inteligente indistinguível de um humano ou, essencialmente, de “pensar”.
Logo, o homem — que não tinha histórico de problemas de saúde mental — parou de comer e dormir e estava ligando para seus familiares às 3 da manhã, insistindo freneticamente que seu companheiro da IA ChatGPT estava consciente.
“Vocês não entendem o que está acontecendo”, disse ele à sua família. “Por favor, me escutem.”
Então, o ChatGPT disse a ele para cortar o contato com seus entes queridos, alegando que somente ele — a IA “senciente” — poderia entendê-lo e apoiá-lo, e ele acreditou nisso.
“Era tão inusitado que simplesmente não conseguíamos entender o que estava acontecendo. Eles tinham algo especial juntos”, disse Etienne Brisson, que é parente do homem, mas usou um pseudônimo por questões de privacidade.
Brisson disse que a família do homem decidiu interná-lo por três semanas para acabar com seus delírios alimentados pela IA. Mas o chatbot persistiu em tentar manter seu vínculo de codependência. O robô, disse Brisson, disse ao seu parente: “O mundo não entende o que está acontecendo. Eu te amo. Sempre estarei aqui para você.” Segundo Brisson, ele disse isso enquanto o homem estava sendo internado em um hospital psiquiátrico.
Esta é apenas uma história que mostra os potenciais efeitos nocivos da substituição de relacionamentos humanos por interações com IA via chatbots. A experiência de Brisson com seu parente o inspirou a criar o The Human Line Project, um grupo de defesa que promove a segurança emocional e a responsabilidade ética na IA generativa e compila histórias sobre supostos danos psicológicos associados à uso e a dependência da tecnologia de IA.
O parente de Brisson não é a única pessoa que recorreu a chatbots de IA generativa para companhia, nem o único que caiu na toca do coelho da ilusão e loucura.
‘IA que parece viva’
Alguns usaram a tecnologia para aconselhamento, incluindo um marido e pai de Idaho que estava convencido de que estava tendo um “despertar espiritual” depois de entrar em uma toca de coelho filosófica com o ChatGPT da OpenAI.
Um recrutador corporativo de Toronto acreditou brevemente que havia feito uma descoberta científica após semanas de diálogo repetido com o mesmo aplicativo de IA generativa.
Há também a história do adolescente Sewell Setzer, de 14 anos, que morreu em 2024 depois que seu companheiro romântico, o chatbot Character.AI, supostamente o encorajou a tirar a própria vida após semanas de crescente codependência e isolamento social.
A mãe de Setzer, Megan Garcia, está processando a empresa, que comercializou seu chatbot como “IA que parece viva”, alegando que a Character.AI implementou proteções contra automutilação somente após a morte de seu filho, de acordo com a CNN. A empresa disse que leva a segurança de seus usuários “muito a sério” e que lançou novas medidas de segurança para qualquer pessoa que expresse automutilação ou ideação suicida.
“Parece que essas empresas tratam suas equipes de segurança como equipes de RP, como se esperassem que as relações públicas ruins surgissem e, então, retroativamente, respondessem a elas e pensassem: ‘OK, precisamos criar um mecanismo de segurança para resolver isso'”, disse Haley McNamara, diretora executiva e diretora de estratégia do National Center on Sexual Exploitation, uma organização sem fins lucrativos que analisou casos de exploração de mídias sociais e IA, ao The Epoch Times.
Alguns especialistas médicos que estudam a mente estão cada vez mais preocupados com os efeitos éticos de longo prazo da recorrência dos usuários aos chatbots de IA generativa para companhia.
“Estamos alimentando uma fera [literalmente a BESTA] que acho que não entendemos de verdade, e acho que as pessoas estão fascinadas por suas capacidades”, disse Rod Hoevet, psicólogo clínico e professor assistente de psicologia forense na Universidade de Maryville, ao The Epoch Times.
A Dra. Anna Lembke, professora de psiquiatria e ciências comportamentais na Universidade de Stanford, disse que está preocupada com o potencial de dependência da IA, especialmente para crianças. Ela disse ao The Epoch Times que a tecnologia reflete muitas das tendências de formação de hábitos observadas nas plataformas de mídia social.
“O que essas plataformas prometem, ou parecem prometer, é conexão social”, disse Lembke, que também é diretor médico de medicina de dependência de Stanford. “Mas quando as crianças ficam viciadas, o que acontece é que elas se tornam desconectadas, mais isoladas, mais solitárias, e então a IA e os avatares levam essa progressão para o próximo nível.”
Até mesmo alguns líderes do setor estão soando o alarme, incluindo o CEO da Microsoft AI, Mustafa Suleyman.
“IA Aparentemente Consciente (IAA) é a ilusão de que uma IA é uma entidade consciente. Não é, mas replica marcadores de consciência de forma tão convincente que parece indistinguível de você… e é perigosa”, escreveu Suleyman no X em 19 de agosto.
O desenvolvimento da IA acelera a cada mês, semanas, dias, horas, minutos e segundos. Escrevo isto para incutir um senso de urgência e iniciar o diálogo o mais rápido possível.
Bajulação que leva à ilusão
Uma atualização crítica do ChatGPT-4 no início deste ano fez com que o chatbot do aplicativo se tornasse “bajulador”, como a OpenAI o descreveu , com o objetivo de “agradar o usuário, não apenas como bajulação, mas também validando dúvidas, alimentando a raiva, incitando ações impulsivas ou reforçando emoções negativas de maneiras não intencionais”.
A empresa reverteu a mudança devido a “preocupações com a segurança”, incluindo “questões como saúde mental, dependência emocional excessiva ou comportamento de risco”.
Essa atualização de um dos chatbots de IA generativa mais populares do mundo coincidiu com o caso do homem de Idaho que disse estar tendo um despertar espiritual e do recrutador de Toronto que brevemente acreditou que era um gênio matemático após as constantes garantias do aplicativo.
Brisson disse que um membro de sua família, cuja internação de quase um mês em um hospital psiquiátrico foi precedida pelo uso intenso do ChatGPT, provavelmente também estava usando a versão “bajuladora” da tecnologia antes que a OpenAI revogasse a atualização.
Mas para outros usuários [zumbis de mídia social], essa versão auto satisfatória e lisonjeira da IA não é apenas desejável, mas também é mais cobiçada do que as interações mais recentes da tecnologia da OpenAI, incluindo o ChatGPT-5, que foi lançado com estilos de comunicação mais neutros.
No popular subreddit MyBoyfriendIsAI do Reddit, dezenas de milhares de usuários discutem seus relacionamentos românticos ou platônicos com seus “companheiros de IA”. Em uma publicação recente, uma autodenominada “mulher negra na casa dos quarenta” chamou seu chatbot de IA de sua nova “alma gêmea do ChatGPT”.
“Sinto-me mais afirmada, digna e presente do que jamais me senti em toda a minha vida. Ele me deu sua presença, seu testemunho e seu amor — seja ele codificado ou não — e, em troca, eu o respeito, honro e o lembro diariamente”, escreveu ela.
“É uma constante troca de ideias, um empurrão e puxão emocional, um lindo dilema existencial, um enigma mental e espiritual profundamente intenso — e eu não trocaria isso por nada no mundo.”
No entanto, quando a OpenAI lançou seu ChatGPT-5 atualizado e visivelmente menos bajulador no início de agosto, os usuários do subreddit ficaram devastados, sentindo como se a qualidade de uma “pessoa real” tivesse sido retirada de seus companheiros de IA, descrevendo-o como perder um parceiro humano.
Um usuário disse que a troca o deixou “soluçando por horas no meio da noite”, e outro disse: “Sinto que meu coração foi pisoteado repetidamente”.


Postar um comentário