Dot.lib

Os psicólogos e as suas competências são insubstituíveis, mas a implementação ponderada e estratégica da IA ​​é crucial (imagem: Canva). Os psicólogos e as suas competências são insubstituíveis, mas a implementação ponderada e estratégica da IA ​​é crucial (imagem: Canva).
Impactos da inteligência artificial na Psicologia
  • Artigo
  • Ciências Sociais Aplicadas, Tecnologia
  • 21/06/2024
  • American Psychological Association, DotLib, IA, Inteligência Artificial, Psicologia, Tecnologia

Na prática da Psicologia, os chatbots de inteligência artificial (IA) podem tornar a terapia mais acessível e menos dispendiosa. As ferramentas de IA também podem melhorar as intervenções, automatizar tarefas administrativas e ajudar na formação de novos profissionais.

Na pesquisa científica, a IA tem oferecido novas formas de compreender a inteligência humana. O machine learning (ou aprendizado de máquina), por exemplo, permite aos pesquisadores obter insights a partir de enormes quantidades de dados. Já os educadores estão explorando maneiras de aproveitar o ChatGPT na sala de aula.

Apesar do potencial da IA, ainda há motivos para preocupação. Há um histórico de ferramentas de IA usadas em assistência médica que discriminaram pessoas com base em sua raça/etnia e status de deficiência. Chatbots já espalharam desinformação e assediaram sexualmente menores, o que levou líderes em Tecnologia e Ciência a pedir uma pausa na pesquisa de IA em março de 2023.

De acordo com o professor de Psicologia e Ciência da Computação da Universidade de Princeton, Tom Griffiths, muito do progresso experimentado nestas áreas se deve à evolução das ferramentas baseadas em inteligência artificial. Mas ainda há pouco entendimento sobre como elas funcionam e os psicólogos podem ajudar nessa missão. “O que faz sentido agora é um grande investimento paralelo na compreensão desses sistemas”, afirma Tom.

Descobrindo vieses

IA na Psicologia: a mão de um robô androide movendo peças de um tabuleiro de xadrez

Imagem: Canva.

À medida que algoritmos e chatbots inundam o sistema, surgem algumas questões cruciais: a IA é segura para uso? É ética? Quais medidas podem ajudar a garantir privacidade, transparência e equidade, à medida que essas ferramentas são cada vez mais usadas na sociedade?

Os psicólogos podem estar entre os especialistas mais qualificados para responder a essas perguntas. A psicóloga Arathi Sethumadhavan, ex-diretora de pesquisa de IA da equipe de ética e sociedade da Microsoft, conduziu pesquisas sobre o DALL-E 2, o ChatGPT-3, o Bing AI e outros. Ela explicou que psicólogos podem ajudar empresas a entender os valores, motivações, expectativas e medos de grupos diversos que podem ser impactados por novas tecnologias.

Esses profissionais também podem ajudar a recrutar participantes com rigor científico, baseado em fatores como gênero, ancestralidade, idade, personalidade, anos de experiência de trabalho, visões de privacidade, neurodiversidade e muito mais. Com esses princípios em mente, Arathi incorporou as perspectivas de diferentes stakeholders impactados para moldar produtos de forma responsável.

Por exemplo, para um novo recurso conversor de texto para fala, ela entrevistou dubladores e pessoas com deficiências de fala para entender e abordar os benefícios e danos da nova tecnologia. Sua equipe descobriu que pessoas com deficiências de fala estavam otimistas sobre o uso do produto para aumentar sua confiança durante interações sociais diversas.

Outra descoberta é a de que vozes sintéticas com a capacidade de mudar ao longo do tempo atenderiam melhor às crianças que usam o serviço. Ela também aplicou métodos de amostragem usados ​​frequentemente por psicólogos para aumentar a representação de afro-americanos em conjuntos de dados de reconhecimento de fala.

“Além disso, é importante trazermos as perspectivas de pessoas que estão perifericamente envolvidas no ciclo de vida do desenvolvimento da IA”, disse Arathi, incluindo pessoas que contribuem com dados (como imagens de seus rostos para treinar sistemas de reconhecimento facial), moderadores que coletam dados e profissionais que rotulam dados para filtrar conteúdo inapropriado, por exemplo.

Os psicólogos também estão analisando de perto a interação homem-máquina para entender como as pessoas percebem a IA e quais efeitos cascata tais percepções podem ter na sociedade. Um estudo de Yochanan Bigman, professor assistente na Universidade Hebraica de Jerusalém, descobriu que as pessoas ficam menos indignadas moralmente com a discriminação de gênero causada por um algoritmo em oposição à discriminação criada por humanos.

Os participantes do estudo também sentiram que as empresas tinham menos responsabilidade legal pela discriminação algorítmica. Em outro estudo, Yochanan e sua equipe analisaram interações em um hotel na Malásia que empregava trabalhadores robôs e humanos. Depois que os hóspedes do hotel interagiram com robôs, eles passaram a tratar os funcionários humanos com menos respeito, vendo-os também como “ferramentas”, de acordo com o estudioso.

Para Arathi Sethumadhavan, muitas questões sobre o que leva as pessoas a confiar na IA e a depender dela ainda estão em pé e respondê-las será crucial para limitar os danos, incluindo a propagação de desinformação. Já para Yochanan Bigman, as agências reguladoras também estão lutando para decidir como conter o poder da IA ​​e quem assume a responsabilidade quando algo dá errado. “Se um humano me discriminar, posso processá-lo. Se uma IA me discriminar, quão fácil será para eu provar isso?”, reflete Yochanan.

IA na prática clínica

IA na Psicologia: um terapeuta em sessão com um robô androide.

Imagem: Canva.

As inovações em IA já chegaram à prática clínica da Psicologia — como chatbots terapêuticos, ferramentas que automatizam a tomada de notas e outras tarefas administrativas, bem como formação e intervenções mais inteligentes. Mas ferramentas nas quais os psicólogos possam compreender e confiar continuam a ser um desafio para os desenvolvedores de softwares.

Embora os chatbots não tenham o contexto, a experiência de vida e as nuances verbais dos terapeutas humanos, eles têm o potencial de preencher lacunas na prestação de serviços de saúde mental. A psicóloga norte-americana Jessica Jackson, que também é ativista pela causa das tecnologias equitativas, afirma que, atualmente, não há fornecedores suficientes para este tipo de ferramenta no mercado. “Embora a terapia deva ser para todos, nem todos precisam dela. Os chatbots podem atender a uma necessidade”, explica a terapeuta.

Para alguns problemas relacionados à saúde mental, como dificuldades para dormir ou angústia associada à dor crônica, a formação por meio de um chatbot pode bastar. Além de tornar o suporte aos cuidados mentais mais barato e acessível, os chatbots podem ajudar pessoas que tendem a se esquivar de um terapeuta humano, como os pacientes iniciantes na terapia ou os que têm ansiedade social.

Jessica explica que esses softwares também dão a oportunidade para a área se reinventar, ao permitir o desenvolvimento intencional de IAs culturalmente competentes e que tornem a Psicologia mais inclusiva. “Minha preocupação é que a IA não seja inclusiva. No fim das contas, a IA precisa ser treinada. Quem está programando isso?”.

Outras preocupações sérias incluem o consentimento informado e a privacidade dos dados do paciente. Em janeiro, a organização sem fins lucrativos de saúde mental Koko gerou desconfianças após oferecer aconselhamento a 4 mil pessoas sem lhes dizer que o apoio vinha do ChatGPT-3. Também surgiram relatos de que a terapia a partir de modelos de linguagem generativa — que produzem textos diferentes em cada interação, dificultando o teste de validade ou segurança clínica — levou pacientes ao suicídio e causou outros danos.

Por outro lado, um chatbot conhecido como Wysa não usa IA generativa, mas limita as interações a declarações redigidas ou aprovadas por terapeutas humanos. O Wysa não coleta endereços de e-mail, números de telefone ou nomes reais, mas registra informações que os usuários compartilham e que podem ajudar a identificá-los. O aplicativo, que oferece terapia cognitivo-comportamental para ansiedade e dor crônica, recebeu a designação de dispositivo inovador da Food and Drug Administration (FDA) nos Estados Unidos.

Ele pode ser usado como uma ferramenta independente ou integrado à terapia tradicional, na qual os médicos podem monitorar o progresso de seus pacientes entre as sessões, como o desempenho em exercícios de reenquadramento cognitivo. “O Wysa não pretende substituir psicólogos ou apoio humano. É uma nova forma de receber suporte”, afirmou Smriti Joshi, psicólogo-chefe da empresa.

A IA também tem potencial para aumentar a eficiência na clínica, reduzindo a carga das tarefas administrativas. Ferramentas de processamento de linguagem natural, como o Eleos, podem ouvir as sessões, fazer anotações e destacar temas e riscos para os profissionais revisarem. Outras tarefas adequadas à automação incluem análise de avaliações, rastreamento de sintomas dos pacientes e gerenciamento de práticas.

Segundo o professor de Psiquiatria e Ciências Comportamentais da Universidade de Stanford, Adam Miner, os terapeutas devem entender como os dados dos pacientes estão sendo manipulados pelos aplicativos de IA e quais deles são seguros e éticos para uso antes de implantá-los na prática clínica. Eles também precisam estar cientes sobre as taxas de erro e os tipos de erros que essas ferramentas tendem a cometer, para evitar discriminações, especialmente com grupos sociais que já têm pouco acesso aos sistemas médicos.

Adam e sua equipe também estão usando a IA para medir o que está funcionando bem em sessões de terapia e identificar áreas de melhoria para os estagiários. Por exemplo, modelos de linguagem natural podem analisar muitas horas de sessões de terapia e identificar oportunidades perdidas de validar um paciente ou falhas em fazer perguntas importantes, como se um paciente suicida tem uma arma de fogo em casa etc..

Nesse sentido, softwares de treinamento como o Lyssn — que avalia os provedores quanto à adesão a protocolos baseados em evidências — estão começando a chegar ao mercado. “Para mim, é aí que a IA realmente faz um bom trabalho. Porque ela não precisa ser perfeita e mantém o humano no controle”, conclui Adam

Revoluções na pesquisa científica

IA na Psicologia: uma figura humanoide envolta em uma cascata de números que representam algoritmos.

Imagem: Canva.

Na pesquisa científica, a IA está ajudando a descobrir novos dados sobre o comportamento humano ao fornecer a possibilidade de analisá-los. Há muito, os psicólogos medem o comportamento por meio de autorrelatos e experimentos laboratoriais, mas agora podem usar a IA para monitorar atividades nas redes sociais, dados de GPS, métricas de smartphones, entre outras coisas.

Para a psicóloga e professora associada da Columbia Business SchoolI, Sandra Metz, “isso realmente muda muita coisa porque, de repente, podemos observar as diferenças individuais conforme elas se manifestam no comportamento cotidiano”. A cientista, cujo foco de suas pesquisas é na personalidade, combinou big data sobre experiências cotidianas com métodos mais tradicionais, como avaliações momentâneas ecológicas (EMAs, na sigla em inglês).

A combinação dessas fontes de dados pode traçar um quadro de como diferentes pessoas respondem à mesma situação e, em última análise, moldar intervenções personalizadas em todos os setores, como na educação e nos cuidados de saúde.

A IA também abre oportunidades para monitoramento passivo que pode salvar vidas. Ross Jacobucci e Brooke Ammerman, ambos professores assistentes de Psicologia na Universidade de Notre Dame, estão testando um algoritmo que coleta capturas de tela da atividade online dos pacientes para sinalizar o uso ou a visualização de termos relacionados a suicídio e automutilação. Ao parear esses dados com as EMAs e métricas fisiológicas de registradas por um smartwatch, eles esperam construir uma ferramenta que possa alertar os médicos em tempo real sobre o risco de suicídio dos pacientes.

Com a sua caixa de ferramentas para compreender sistemas inteligentes, os psicólogos estão na posição perfeita para ajudar. Uma grande questão no futuro é como preparar os estudantes de pós-graduação para colaborar de forma mais eficaz com os cientistas da computação que desenvolvem modelos de IA. “Os profissionais da Psicologia não conhecem os jargões da Ciência da Computação e vice-versa — e há pouquíssimas pessoas na intersecção dos dois campos”, disse Jacobucci.

Em última análise, a IA apresentará desafios para os psicólogos, mas enfrentá-los tem o potencial de transformar o campo.

Sobre a American Psychological Association

IA na Psicologia: logo da American Psychological Association.

Imagem: American Psychological Association / Dot.Lib.

Este conteúdo foi parcialmente traduzido do artigo “AI is changing every aspect of psychology. Here’s what to watch for”, da American Psychological Association (APA), líder no provimento de conteúdo para pesquisa em Psicologia, Ciências Comportamentais e Sociais. Seu acervo de livros, periódicos e conteúdos multimídia faz da APA uma das maiores e mais respeitadas bases de dados do mundo. 

Entre os destaques de seu portfólio está o APA PsycInfo, uma ferramenta que hospeda mais de cinco milhões de registros bibliográficos interdisciplinares que oferecem descobertas direcionadas à Psicologia. Há também o APA Therapy, que dá acesso a mais de 900 vídeos de sessões terapêuticas reais, proporcionando a estudantes, profissionais em psicoterapia e aconselhamento demonstrações práticas das diferentes abordagens e técnicas terapêuticas.

Se você quer saber mais sobre o portfólio da American Psychological Association para a sua instituição, entre em contato conosco pelo e-mail info@dotlib.com ou preencha o formulário clicando aqui. Aproveite e acompanhe nosso blog, siga nossas redes sociais e se inscreva na Dotlib TV, nosso canal oficial no YouTube.

Dot.Lib
Dot.Lib

A Dot.Lib distribui conteúdo online científico e acadêmico a centenas de instituições espalhadas pela América Latina. Temos como parceiras algumas das principais editoras científicas nacionais e internacionais. Além de prover conteúdo, criamos soluções que atendem às necessidades de nossos clientes e editoras.

Quer conhecer o nosso conteúdo?

Podemos lhe oferecer trials (períodos de acesso de teste gratuitos) dos conteúdos de nossas editoras parceiras. Se você tem interesse em conhecer alguma de nossas publicações ou soluções de pesquisa, preencha o formulário ao lado.

Informe os dados abaixo.
Utilizamos seus dados para analisar e personalizar nossos conteúdos e anúncios durante a sua navegação em nossa plataforma e em serviços de terceiros parceiros. Ao navegar pelo site, você autoriza a Dot.Lib a coletar tais informações e utilizá-las para estas finalidades. Em caso de dúvidas, acesse nossa Política de Privacidade ou Política de Cookies.