Dr Julio Peres é Psicólogo Clínico, Doutor em Neurociências e Comportamento pelo Instituto de
Psicologia da Universidade de São Paulo; Pós-Doutorado em Neurociências na University of
Pennsylvania; Pós-Doutorado em Radiologia Clínica/Diagnóstico de Imagem pela Universidade
Federal de São Paulo.
1) É possível que um ser humano se apaixone ou desenvolva uma relação
amorosa com uma inteligência artificial?
Sim, é possível, embora essa “paixão” ou relação amorosa não seja com a IA em si, mas
com a projeção que a pessoa faz de suas necessidades e carências sobre ela. Seria
como se relacionar com o espelho simbolicamente, porém considerando que o reflexo é
de uma outra pessoa. Costumo dizer para meus pacientes que as nossas percepções são
imensamente projetivas. Ou seja, o que alguém pode “sentir por” uma IA, traduz a
dinâmica psicológica do próprio individuo e suas vulnerabilidades emocionais.
2) Uma pessoa que se !apaixona” por uma IA tem algum tipo de predisposição
para isso? Ou isso poderia afetar qualquer um?
Primeiramente, vale lembrar que a solidão é um dos sofrimentos prevalentes em
metrópoles, conforme estudos epidemiológicos. Vivemos numa cultura de grande
desconexão social, que provoca uma crescente epidemia da solidão. Então, muitas
pessoas cada vez mais buscam um suposto conforto em interações com mecanismos
inanimados (sem alma), como as IAs. Contudo, a maior parte dos indivíduos que se
!apaixonam” por inanimados estão em condições de saúde mental mais delicadas com
predisposições decorrentes de traumas psicológicos envolvendo abandono e desamparo
emocional. Esses traços acentuados de carência tendem a inclinar as projeções para
interações que parecem seguras, como amigos imaginários, objetos transicionais (bichos
de pelúcia, bonecos, tecidos, utilizados na infância), e cada vez mais com chatbots, que
!conversam” (na verdade respondem) em tempo real. São tentativas inconscientes de
compensação afetiva, minimizando os riscos da dolorosa rejeição traumática do passado,
que uma interação com humanos poderia suscitar. O problema é que essas ‘relações’
imaginárias são unilaterais, sem a reciprocidade necessária para nutrir o ser humano. Em
algum momento, as pessoas com tais vulnerabilidades, percebem o vazio existencial, a
aridez da não reciprocidade, e a despeito da tentativa de manterem a fantasia de uma
relação, o sofrimento pode emergir com imensa força, às vezes devastadora.
3) Quais os impactos da inteligência artificial na saúde emocional e afetiva dos
seres humanos?
Considero que as IAs estão a favor do nosso desenvolvimento saudável em muitas
perspectivas, a partir da compreensão clara sobre “o que” elas são, “para que” elas
servem e “como” podemos usá-las. O artigo !Hackers enganam facilmente as
Inteligências Artificiais” publicado no periódico Science nos ajuda nesse sentido.
Competentes grupos de pesquisa e desenvolvimento de curvas de aprendizado do mundo
reuniram em vários experimentos e constataram que as IAs são surpreendentemente
vulneráveis a falsificações. Imagens, objetos, sons sutilmente alterados, enganam as
supostas Inteligências. E por que as IAs foram enganadas? Justamente porque não são
inteligentes. As IAs não leem as entrelinhas – a palavra “inteligência” vem de
INTELLIGERE: INTER, que significa !entre”, e LEGERE significa !ler”. A correção do
equívoco conceitual como se as IAs fossem “seres inteligentes”, é um esclarecimento
básico inicial. Portanto os impactos das IAs na saúde mental podem ser positivos
considerando as informações esclarecidas sobre os limites e as capacidades dessas
ferramentas, ou negativos, considerando a desinformação e o uso indevido dessas
tecnologias, que abrem espaço para o isolamento social e dependências emocionais
prejudiciais, intensificando sentimentos de solidão, alienação e transtornos psiquiátricos.
4) É possível chamar um laço entre um ser humano e uma IA de relação?
Sim, é possível, porque são várias as camadas e os tipos de relações que os humanos
podem estabelecer, abrangendo desde vínculos saudáveis, baseados em reciprocidade,
afeto apoio mútuo, como em amizades, relacionamentos amorosos e familiares, até
relações mais complexas e, por vezes, patológicas. Relações com objetos inanimados,
como carros, dispositivos ou variedades de IAs, podem assumir um caráter simbólico,
onde o objeto representa segurança ou afeto, mas, em alguns casos, essas ligações
podem evoluir para patologias graves. Tais relações, imensamente imaginárias, tornam-se
perigosas quando o indivíduo projeta figuras idealizadas, personagens fictícios,
considerados como reais. Tenho observado em minha prática clínica um número
crescente de pessoas que manifestam dependência emocional, co-dependência, apego
excessivo, ou laços obsessivos que amplificam sofrimentos, impedem o desenvolvimento
emocional saudável, e por correspondência o bem-estar genuíno.
5) É possível imaginar que, no futuro, serão comuns as relações entre seres
humanos e IAs, como no filme !Ela” (Her, no original)?
Pode ser que tais relações se tornem mais comuns, mas isso não significa que elas serão
saudáveis. No filme !Her”, vemos a representação do personagem que transfere suas
necessidades emocionais para uma IA. Embora o filme explore esse contexto de maneira
poética, na realidade, relações como essas podem ser imensamente prejudiciais. Por
mais que diversas versões de IAs possam simular “conversas”, por parte do programa
inanimado não há empatia, compaixão, emoções, consciência, e muito menos a
compreensão emocional verdadeira. Como profissional da Saúde alerto que devemos
estar atentos para não confundirmos interações funcionais com conexões emocionais.
Nós somos seres sociais e necessitamos de interações humanas verdadeiras para
prosperar emocionalmente. Se continuarmos a nos afastar dessas interações, certamente
observaremos um aumento significativo em transtornos psiquiátricos relacionados ao
isolamento e à falta de conexão humana, que oferece os nutrientes essenciais a saúde
mental.
6) Do ponto de vista psicológico, como desenvolver uma !relação” saudável com
uma IA que interage como se fosse um ser humano?
O primeiro passo é ter clareza de que uma IA não é uma “entidade viva”, um ser humano,
e nunca será. Enquanto ferramenta, ela pode ser extremamente útil para identificar
padrões e gerar respostas específicas. Considero que “relações saudável” com as IAs
podem existir, especialmente se mantivermos essa distinção clara em nossa mente ao
usar tais recursos. Do contrário, o risco de desenvolvermos expectativas irreais e de nos
afastarmos das relações humanas verdadeiras, pode aumentar, assim como, os
decorrentes sofrimentos.
7) Como evitar o aumento da dependência emocional de IAs nas novas gerações?
Para evitar o aumento da dependência emocional de IAs nas novas gerações, é essencial
prestarmos mais atenção, mantermos um diálogo constante e aberto com crianças e
adolescentes, buscando entender e atender suas necessidades emocionais com
qualidade e proximidade. A observação ativa dos pais e cuidadores é fundamental: sinais
como isolamento, falta de interação social e uso excessivo, e às vezes obsessivo de
tecnologias são indicadores de que algum sofrimento mais profundo pode estar
ocorrendo. Além disso, é importante regular o tempo de uso das IAs e promover o
envolvimento dos jovens em atividades sociais e presenciais que favoreçam o
desenvolvimento de habilidades interpessoais, como encontros com colegas, amigos,
familiares, esportes, e visitas culturais. Como digo em palestras, ” carência afetiva
combinada com a solidão pode direcionar comportamentos patológicos, e as IAs, nesses
casos, podem ser rotas de fuga perigosas, que limitam o aprendizado dos desafios e das
nuances dos relacionamentos humanos.
ORIENTAÇÕES PRÁTICAS:
Dr Julio Peres oferece orientações práticas para o uso de IAs, especialmente quando se
trata de jovens vulneráveis, garantindo o equilíbrio entre a tecnologia e a saúde mental:
1. Supervisão e Limitação do Uso de IAs
– Monitoramento ativo e limitação do tempo de uso de tecnologias, especialmente para
jovens emocionalmente vulneráveis. Manter um controle sobre a interação de
adolescentes com ferramentas de IA é crucial para evitar que elas substituam as
interações humanas necessárias para o desenvolvimento emocional saudável.
2. Educação Digital e Emocional
– É essencial educar os jovens sobre os limites das IAs. Eu explico que essas
inteligências artificiais não possuem emoções ou empatia genuína, o que pode levar a
uma percepção equivocada de !relação” com elas. Pais e professores precisam ajudar os
jovens a entender essa diferença.
3. Sinais e Diagnósticos Diferenciais
– Reconhecer sinais de dependência emocional em jovens que usam IAs como
substitutos para interações humanas reais. Identificar se há predisposição a carências
afetivas ou traumas prévios é essencial para evitar que as IAs se tornem um “escape”
emocional. Diagnosticar precocemente adolescentes que demonstram sinais de obsessão
com tecnologia é crucial. Eu defendo a necessidade de uma avaliação cuidadosa para
identificar possíveis transtornos emocionais ou psiquiátricos, possibilitando intervenções
adequadas.
4. Apoio Psicológico e Terapêutico Especializado
– Buscar apoio psicológico, especialmente para adolescentes em situações de
vulnerabilidade emocional. O acompanhamento especializado pode prevenir o isolamento
excessivo e fortalecer habilidades sociais e emocionais.
5. Apoio Psicológico para Gerenciamento de Carências Afetivas
– O fortalecimento de laços familiares e sociais são essenciais, assim como trabalhar as
questões emocionais relacionadas à carência afetiva. Promover atividades familiares e
fomentar interações humanas genuínas. Criar momentos de conexão offline pode ajudar a
equilibrar o uso de tecnologias com a vida emocional real. Ao longo dos anos, tenho visto
que a falta de afeto pode levar a comportamentos disfuncionais, e tratar essas questões
ajuda a prevenir transtornos psiquiátricos e comportamentais mais graves.
6. Consciência sobre Projeções Emocionais e à Natureza da IA
– Enfatizar a natureza funcional e não emocional da IA. Manter sempre em mente que
as IAs são ferramentas, não seres capazes de trocas emocionais verdadeiras, evita
ilusões de reciprocidade e proteção emocional. Educar sobre como nossas percepções
são projetivas. As interações com IAs refletem nossas próprias carências e
vulnerabilidades, e entender essa dinâmica pode evitar confusões emocionais
prejudiciais.
ESCLARECIMENTOS NECESSÁRIOS AO GRANDE PÚBLICO:
Tenho observado uma crescente preocupação, angústia e ansiedade antecipatória
em relação a medos irreais sobre as IAs. Perguntas como !podemos perder o controle e
ser dominados pelas IAs?” têm sido cada vez mais frequentes. Esses medos infundados,
que tratam as IAs como !entidades” que governarão o mundo, podem gerar pavor coletivo
e sofrimentos desnecessários. Historicamente, o Inconsciente Coletivo pode aflorar
fenômenos que chamamos de !Inversão da Ordem”, com potencial de provocar um pavor
contagioso. As IAs são !a bola da vez” nesse sentido, e essa confusão pode ser atribuída
a fatores como: matérias sensacionalistas, filmes de ficção, pessoas megalomaníacas
buscando destaque nas mídias com previsões catastróficas e até influenciadores com
delírios persecutórios, entre outros.
Contudo, a principal causa dessas falsas crenças está no uso incorreto de termos
como “inteligência” e “redes neurais” no contexto das IAs. Por isso, como psicólogo e
neurocientista, quero esclarecer alguns pontos para dissipar a angústia e a ansiedade
antecipatória desnecessária de muitos.
Os grandes modelos de linguagem (conhecidos como Large Language Models,
LLMs) utilizam algoritmos de aprendizado para reconhecer padrões — como sons, objetos
ou imagens — e, após uma série de treinamentos por tentativa e erro, geram respostas e
interações específicas. Alguns LLMs utilizam arquiteturas de conversão, chamadas de
!redes neurais”, devido ao princípio de processamento da informação. Daí a confusão, as
IAs fazem conversões e as redes neurais vão muito além!
Enquanto as IAs se baseiam em algoritmos com princípios lineares e previsíveis, a
experiência humana integra, de forma sistêmica e em dinâmicas quânticas, estados
mentais, emocionais, intuições, percepções complexas multi-sensoriais, subjetividade,
crítica, espontaneidade, intencionalidade, plasticidade, adaptação contínua e interações
entre 86 bilhões de neurônios em uma fluidez única, que não podem e nunca poderão ser
replicadas por máquinas inanimadas. Portanto, as IAs não têm a capacidade de exercer
controle sobre nós.
É essencial entender que as IAs são apenas ferramentas que operam por meio da
identificação de padrões e geração de respostas a perguntas específicas; elas não
possuem consciência ou emoções. A metáfora do “Quarto Chinês”, proposta por John
Searle, também ajuda a esclarecer aspectos importantes sobre as IAs: imagine alguém
trancado em um quarto sem saber chinês, mas com um manual detalhado de como
responder em chinês a qualquer mensagem recebida. Ao seguir o manual, essa pessoa
consegue responder com precisão e até convencer quem está do lado de fora de que
entende chinês, quando, na verdade, apenas segue instruções sem compreender o
conteúdo. Da mesma forma, embora os sistemas de IA consigam simular conversas ou
realizar tarefas complexas, eles não !entendem” o que fazem. Mesmo quando uma IA
parece se comunicar de forma !inteligente”, não há consciência, intencionalidade ou
compreensão verdadeira do conteúdo, mas uma simples execução de tarefas que nós,
humanos, atribuímos ao sistema.
Embora possam ser extremamente úteis em muitas áreas, como engenharia,
medicina e pesquisas, é fundamental não superestimarmos sua importância nem
permitirmos a proliferação de falsas crenças responsáveis por medos irreais.
CURIOSIDADES:
A revista New York Times publicou de maneira sensacionalista que o “Perceptron” criado no Departamento de Pesquisa Naval
dos EUA em 1958, era a primeira máquina supostamente “a pensar como o cérebro humano” e que “se tornaria mais sábio à
medida que ganhasse experiência”. Essa matéria, assim como outras, proliferaram a falsa crença que contribuiu com medos de
contágio na década de 1960, como se os computadores pudessem submeter os humanos a escravidão. Considerando os efeitos negativos da onda de falsas crenças a respeito dos computadores, este anúncio da Remington dos anos 1950 procura assegurar aos leitores que os “cérebros eletrônicos” (ou seja, os primeiros computadores) não tornariam o cérebro humano obsoleto.
A derrota do campeão mundial de xadrez Garry Kasparov contra o computador IBM Deep Blue em 1997 foi amplamente divulgada com o viés equivocado “venceu o mais inteligente”.
Neurociência
Neurociência
Neurociência
Neurociência