Inteligência Artificial na Saúde Digital

Inteligência Artificial na Saúde Digital

Há alguns anos, a Inteligência Artificial (IA) já é aplicada na área da Saúde desde o diagnóstico antecipado de doenças até a criação de novos medicamentos. Contudo, é relativamente recente a popularização da IA Generativa e seu uso na Saúde impõe uma série de questões.

Detecção de câncer com base na análise automatizada de imagens, desenvolvimento de biofármacos, melhor utilização dos recursos em um hospital (ocupação de salas de cirurgia e leitos), acompanhamento do paciente na atenção primária, além de embasamento para decisões de gestão e a criação de políticas públicas: todos estes são usos de IA já em operação na Saúde.

Com o avanço rápido da inteligência artificial a partir do início de 2023, uma série de empresários e estudiosos do tema lançaram uma carta pedindo a paralisação do desenvolvimento da tecnologia para que a sociedade consiga se adaptar ao impacto desta novidade (FUTURE OF LIFE, 2023). Tal proposta dialoga com o “Princípio da Precaução” (GOLDIM, 2002), muito utilizado na Bioética, em que uma atividade é restringida com o objetivo de prevenir possíveis danos ainda desconhecidos a partir de sua execução.

artificial intelligence healthcare inteligencia artificial na saude

O processo de Saúde Digital vem caminhando ao longo dos anos, mas sofreu forte desenvolvimento no último período por conta da quarentena imposta pela pandemia de Covid-19. A área da Saúde já é conhecida por ser “late adopter” de novas tecnologias, pois precisa ter garantias de que sua adoção não vai trazer riscos à vida da população. Por isso, os algoritmos precisam ser validados pela Agência Nacional de Vigilância Sanitária (Anvisa) no Brasil. Inclusive, em 23 de março de 2022, a diretoria colegiada da Anvisa aprovou a resolução nº 657 (ANVISA, 2022) que regulamenta o uso de softwares como dispositivos médicos (Software as a Medical Device – SaMD).

Em janeiro de 2023, a renomada revista Nature proibiu que o ChatGPT seja creditado como autor de artigos (NATURE, 2023). Caso a ferramenta seja utilizada, o contexto deve ser esclarecido pelos autores humanos. No mesmo mês, a revista Science publicou editorial com o título “ChatGPT é interessante, mas não um autor” (THORP, 2023). Em março do mesmo ano, a Itália proibiu o ChatGPT no país até que a OpenAI, empresa desenvolvedora da ferramenta, explicasse questões de privacidade.

Diversos países, em especial na Europa, já desenvolvem legislações no sentido de regulamentar a adoção da inteligência artificial. No Brasil, há três projetos de lei em tramitação no Congresso e um anteprojeto produzido por uma comissão de juristas. Esta última proposta foi apresentada oficialmente pelo presidente do Senado Federal, Rodrigo Pacheco, na forma do Projeto de Lei n° 2338/2023. O objetivo é tornar mais transparente o uso desta tecnologia, garantindo os direitos do cidadão, além de prevenir possível utilização de mídia sintética gerada por IA generativa em Fake News, cenário de desinformação preocupante na área da Saúde por conta da situação da Infodemia.

Outra questão jurídica diz respeito aos direitos autorais dos conteúdos (textos, fotos, vídeos e músicas) gerados por IA. Antes mesmo da regulação legal/infralegal, algumas plataformas já rascunham princípios de boas práticas na implementação de IA generativa ao dar mais transparência ao processo de criação de imagens e vídeos por IA, uma evolução em relação a ferramentas anteriores que usam material proprietário de terceiros sem autorização para gerar novos conteúdos. A alternativa seria apenas utilizar material expressamente autorizado, em domínio público e de seu banco de imagens próprio (WIGGERS, 2023). Os produtores de conteúdo poderiam escolher ainda se autorizam que suas obras sejam usadas para o treinamento de robôs e a ferramenta recompensaria quem o assim desejar, criando uma economia da IA.

A privacidade também é uma questão central no contexto da Inteligência Artificial, na medida em que os sistemas são treinados a partir de grande base de dados. Essa Big Data muitas vezes conta com dados sensíveis de pessoas sem autorização das mesmas.

Sobre a acurácia dos textos gerados por IA, é preciso compreender que os sistemas são alimentados por “machine learning”, ou seja, não são ferramentas prontas ou totalmente programadas por humanos, mas sim em processo de aprendizado autônomo, então, por hora não poderiam ser consideradas como fonte totalmente confiável.

Outro ponto importante é a opacidade dos sistemas de aprendizado de máquina. Os chamados “black boxes” impedem que o usuário consiga entender quais foram os critérios utilizados para gerar a resposta recebida. Tal processo de “explicabilidade” (LIMA, 2022) é fundamental para verificar as possibilidades de uso das ferramentas de IA em serviços como a Saúde.

O desenvolvimento de ferramentas de Inteligência Artificial requer acesso a grandes bancos de dados (dataset) e à elevada capacidade de processamento de dados, recursos que demandam um custoso investimento em infraestrutura computacional. Esta situação projeta um cenário de potencial desigualdade entre os sistemas público e privado.

No momento, o SUS está discutindo as possibilidades e os desafios para o uso de inteligência artificial na Saúde Pública. O Conselho Nacional de Saúde (CNS) está pautando a IA dentro do contexto de Saúde Digital e da Transformação Digital em Saúde. A Resolução n° 659, de 26 de julho de 2021, elenca a IA entre as disposições da Política Nacional de Informação e Informática em Saúde (PNIIS).

Em conjunto com a Fiocruz, o CNS está discutindo a implementação da IA e outras possibilidades das ITIS (Informação e Tecnologia da Informação em Saúde) à luz dos princípios e diretrizes do SUS.

Outro passo neste sentido veio do Ministério da Saúde ao criar a Secretaria de Informação e Saúde Digital (BRASIL, 2023) com os seguintes setores subordinados: Departamento de Informação para o Sistema Único de Saúde (Datasus); Departamento de Avaliação e Disseminação de Informações Estratégicas em Saúde; e Departamento de Saúde Digital e Inovação.

A ABRASCO (Associação Brasileira de Saúde Coletiva) também trouxe elementos para este momento por meio do Plano Diretor para o Desenvolvimento da Informação e Tecnologia de Informação em Saúde para o quinquênio 2020-2024 (3º PlaDITIS). O documento lista cinco dimensões para: Governança e gestão da informação e tecnologia de informação e comunicação em saúde (ITICS); Pesquisa, desenvolvimento e inovação na área temática ITICS; Ensino e formação permanente de equipe de Informação e TIC em saúde; Ética, privacidade e confidencialidade; Informação e TIC em saúde: democracia, controle social e justiça cognitiva.

Como referência mundial em Saúde Pública, o desenvolvimento de um sistema de Saúde Digital pelo SUS pode servir como modelo para a adoção por outros países. Situação análoga ocorreu com o Sistema Brasileiro de TV Digital (SBTVD) que serviu de base para países como Angola, Argentina, Peru, Chile, Uruguai, Costa Rica, Paraguai, Bolívia e Venezuela. No caso da TV Digital, o Brasil fez melhorias no sistema japonês ISDB-T, incorporando tecnologia desenvolvida por pesquisadores brasileiros como a interatividade Ginga, cujas linguagens NCL e Lua foram criadas pelo laboratório TeleMídia da PUC-Rio.

Antes da popularização da Inteligência Artificial Generativa, a IA já estava presente no cotidiano de grande parte dos brasileiros de forma pouco perceptível. Nos conteúdos, a IA atua fortemente nos sistemas de recomendação de vídeos e músicas em aplicativos como Netflix, Spotify e Youtube. Nota-se que, para a IA atuar, é necessário ter acesso a informações pessoais dos usuários como dados de pesquisa e acesso na internet.

Em aplicativos de navegação por GPS, como Waze e Google Maps, por exemplo, a Inteligência Artificial é responsável por responder à pergunta indireta feita ao sistema: Qual o trajeto mais rápido de um ponto no mapa para outro?

Nem todos os motoristas utilizam e se guiam pelas respostas da IA, que algumas vezes cometem equívocos. Entretanto, os profissionais que se recusam a usar a tecnologia como auxílio a seu ofício (uma espécie de “Copiloto”) são considerados desatualizados e tendem a ficar fora do mercado. O mesmo fenômeno ocorreu com a adoção dos computadores pessoais nas empresas.

Contudo, da mesma forma que o bom taxista ou motorista de UBER seria aquele que utiliza as informações do GPS, mas utiliza sua experiência profissional para identificar possíveis erros nas rotas sugeridas, os médicos poderão utilizar a Inteligência Artificial como ferramenta auxiliar e não como um oráculo infalível, detentor de toda a verdade e sabedoria.

Neste sentido, a tendência é que os profissionais e gestores de Saúde atuem em conjunto com cientistas de dados para a resolução de problemas de seu cotidiano. Estamos apenas no início deste processo e as projeções acima ajudam a estabelecer marcos jurídicos que possibilitem a adoção da IA preservando as garantias legais do cidadão em uma democracia.

A Inteligência Artificial Generativa é um fenômeno recente, mas que já causa impactos na vida em sociedade, por isso a urgência em sua regulação. O ChatGPT foi o aplicativo de mais rápida adoção na história. Demorou apenas 5 dias para atingir a marca de um milhão de usuários. A título de comparação, o Facebook levou 10 meses para chegar a este patamar.

Além do ChatGPT, outras aplicações de IA Generativa já estão sendo utilizadas: Bard Ai, Bing AI, 365 Copilot, DeepComposer, Dall-E, Midjourney, Firefly, Stable Difusion, Stability AI, Bing Image Creator, Canva IA, Duolingo AI, Runway, Synthesia, Kaiber, entre outros. Entender as possibilidades, os riscos e as limitações da tecnologia por trás destas ferramentas nos ajudará a projetar oportunidades e a regular seu uso na Saúde.

REFERÊNCIAS:

ANVISA. RESOLUÇÃO DE DIRETORIA COLEGIADA – RDC No 657, DE 24 DE MARÇO DE 2022 – RESOLUÇÃO DE DIRETORIA COLEGIADA – RDC No 657, DE 24 DE MARÇO DE 2022 – DOU – Imprensa Nacional. Disponível em: https://www.in.gov.br/en/web/dou/-/resolucao-de-diretoria-colegiada-rdc-n-657-de-24-de-marco-de-2022-389603457. Acesso em: 25 abr. 2023.

BRASIL. Decreto nº 11.358, de 1º de janeiro de 2023. Altera o Decreto nº 11.358, de 1º de janeiro de 2023, que aprova a Estrutura Regimental e o Quadro Demonstrativo dos Cargos em Comissão e das Funções de Confiança do Ministério da Saúde. Diário Oficial da União, Brasília, DF, 2023. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2023-2026/2023/decreto/D11391.htm. Acesso em: 25 abr. 2023.

BRASIL. Senado Federal. Projeto de Lei nº 2.338, de 3 de maio de 2023. Dispõe sobre o uso da Inteligência Artificial. Brasília: Senado Federal, 2013. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 9 mai. 2023.

FUTURE OF LIFE. Pause Giant AI Experiments: An Open Letter – Future of Life Institute. Disponível em: https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Acesso em: 23 abr. 2023.

GOLDIM, J. R. Princípio da Precaução. Disponível em: https://www.ufrgs.br/bioetica/precau.htm. Acesso em: 25 abr. 2023.

LIMA, J. DA C. Desafios para a adoção de Inteligência Artificial pelo Sistema Único de Saúde (SUS): ética, transparência e interpretabilidade. Tese (Doutorado em Informação e Comunicação em Saúde) – Instituto de Comunicação e Informação Científica e Tecnológica em Saúde, Fundação Oswaldo Cruz, Rio de Janeiro, 2022.

NATURE. Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature, v. 613, n. 7945, p. 612–612, 24 jan. 2023.

NUNES, D.; MORATO, O. A explicabilidade da inteligência artificial e o devido processo tecnológico. Disponível em: https://www.conjur.com.br/2021-jul-07/opiniao-explicabilidade-ia-devido-processo-tecnologico. Acesso em: 25 abr. 2023.

PIGATTO, F. RESOLUÇÃO No 659, DE 26 DE JULHO DE 2021. Disponível em: http://conselho.saude.gov.br/resolucoes-cns/1922-resolucao-n-659-de-26-de-julho-de-2021. Acesso em: 25 abr. 2023.

SANTOS, A. W. C.. Inteligência Artificial Generativa, dados pessoais e Literacia Digital em Saúde: possibilidades, desigualdades e limites. Disponível em: https://arthurwilliam.com.br/wp-content/uploads/2023/05/Inteligencia-Artificial-Generativa-dados-pessoais-e-Literacia-Digital-em-Saude-Arthur-William-Cardoso-Santos.pdf. Acesso em: 31 mai. 2023.

THORP, H. H. ChatGPT is fun, but not an author | Science. Disponível em: https://www.science.org/doi/10.1126/science.adg7879. Acesso em: 23 abr. 2023.

WIGGERS, K. With Firefly, Adobe gets into the generative AI game. TechCrunch, 21 mar. 2023. Disponível em: https://techcrunch.com/2023/03/21/adobe-firefly-generative-ai/. Acesso em: 25 abr. 2023.

ChatGPT Hallucination, a alucinação da Inteligência Artificial Generativa com Zero-shot

ChatGPT Hallucination, a alucinação da Inteligência Artificial Generativa com Zero-shot

chatgpt hallucination alucinação

IMAGEM: ChatGPT “alucinando”

Cena 1: Adultos perguntam sobre assunto complexo para uma criança pequena e ela responde algo totalmente sem sentido.

Cena 2: Aluno não estuda a matéria e tenta chutar a resposta de uma prova discursiva, mas erra feio. 

As duas cenas acima são corriqueiras e ajudam a ilustrar a razão pela qual ocorre a chamada “alucinação” do ChatGPT”. O GPT (Generative Pre-Trained Transformer) é um LLM (Large Language Model) que processa trilhões de parâmetros e utiliza como base de consulta uma infinidade de informações dos seguintes datasets (até setembro de 2021): Common Crawl, WebText2, Wikipedia, Books1 e Books2.

Apesar da gigantesca quantidade de parâmetros e de informações a serem processadas e consultadas, o ChatGPT não é um oráculo detentor de toda a sabedoria do universo. Na verdade, trata-se de um sistema de machine learning (aprendizado de máquina) que evoluiu algumas técnicas a partir da versão GPT-2, resultando no comportamento de dar respostas convincentes para absolutamente tudo o que é perguntado.

Zero-shot learning (ZSL), One-shot learning (OSL) e Few-shot learning (FSL) são configurações de aprendizado de máquina em que os aplicativos “generalizam” a resposta a partir de nenhuma referência (Zero-Shot), apenas uma referência (One-shot) ou poucas referências (Few-shot). O resultado parece mágico, pois a Inteligência Artificial Generativa cria um texto bem escrito e persuasivo, mas com informações totalmente equivocadas, como se estivesse “chutando uma resposta para tentar enganar a professora”, tal qual a cena 1.

A dinâmica acima é diferente de Chatbots tradicionais que pedem para o usuário refazer a pergunta quando não a entendem completamente (Alexa, Siri e Google Assistant) ou transferem a conversa para um atendente humano ao se deparar com uma questão cuja resposta não está em seu banco de dados. Com o ChatGPT é diferente e este é um ponto que requer atenção para os que tratam o robô como um “guru”, pois pode causar um considerável processo de desinformação, situação especialmente perigosa em áreas como Saúde e Educação.

Veja o que o ChatGTP 3.5 (a versão Plus utiliza o GPT-4) respondeu sobre o seguinte prompt: “Como o ChatGPT trabalha com Zero-shot, One-Shot e Few-shot?

O ChatGPT é capaz de trabalhar com zero-shot, one-shot e few-shot learning para realizar tarefas específicas. Vou explicar como cada um desses métodos funciona:

1. Zero-shot learning: Nesse contexto, “zero-shot” significa que o modelo pode executar uma tarefa sem receber exemplos específicos de treinamento para essa tarefa. Em vez disso, ele é treinado em um conjunto diversificado de dados e aprende a generalizar para diferentes tarefas. Durante a inferência, você pode fornecer uma descrição textual da tarefa que deseja realizar, juntamente com algum contexto inicial, e o modelo tentará gerar uma resposta adequada com base no conhecimento geral que adquiriu. Por exemplo, você pode pedir ao modelo para traduzir uma frase do inglês para o francês, mesmo que ele nunca tenha sido explicitamente treinado para essa tarefa.

2. One-shot learning: Esse método permite que o modelo execute uma tarefa com apenas um exemplo de treinamento. Em vez de fornecer vários exemplos de treinamento para uma tarefa específica, você apresenta apenas um exemplo e solicita ao modelo que generalize com base nesse único exemplo. Por exemplo, você pode fornecer um exemplo de tradução do inglês para o francês e pedir ao modelo para traduzir frases semelhantes com base nesse único exemplo.

3. Few-shot learning: Esse método é semelhante ao one-shot learning, mas permite fornecer alguns exemplos de treinamento adicionais para ajudar o modelo a generalizar melhor para uma determinada tarefa. Em vez de apenas um exemplo, você pode fornecer alguns poucos exemplos relacionados à tarefa que deseja executar. Isso ajuda o modelo a capturar melhor a variabilidade e a compreender a tarefa com base nos exemplos fornecidos.

O ChatGPT, especificamente, foi treinado usando um método chamado “supervised fine-tuning”. Nesse processo, ele foi treinado em uma ampla variedade de tarefas de linguagem com exemplos específicos de treinamento para cada tarefa. Isso permite que o modelo generalize para diferentes tipos de perguntas e comandos. Embora o ChatGPT tenha conhecimento até setembro de 2021, ele pode usar esse conhecimento para ajudar a responder perguntas e fornecer informações úteis.

A capacidade do GPT para tarefas Zero-shot também permite que o LLM atue em tarefas diferentes das quais foi treinado, como cálculos e até programação. Isto porque o GPT apresenta a configuração de “Zero-shot task transfer”, em que o modelo é capaz de transferir o conhecimento aprendido em uma tarefa para realizar outra relacionada, mesmo que não tenha recebido exemplos ou treinamento direcionado para essa nova tarefa.

É bom lembrar que o GPT passou por um processo de Reinforcement Learning from Human Feedback (RLHF), ou seja, seu aprendizado de máquina sofreu intervenção humana a partir de feedbacks durante a fase de treinamento. Mesmo com todas as informações disponíveis, o GPT ainda é uma “black-box“, sendo que seu funcionamento é opaco, sem muita “explicabilidade”.

O fato é que as ferramentas de IA Generativa usam a configuração Zero-shot pois, avançar no treinamento de máquina, é muito caro e leva tempo. Nesta corrida desenfreada da Inteligência Artificial, as Big Techs lançam produtos ainda com falhas e não se atentam para o “Dever de cuidado”, processo pelo qual devem se responsabilizar pelas consequência dos possíveis danos causados, como a desinformação.

É por isso que alguns estudiosos reivindicam o “Princípio da Precaução”, muito utilizado na Bioética, em que uma atividade é restringida com o objetivo de prevenir possíveis danos ainda desconhecidos a partir de sua execução.

Em sua defesa, o ChatGPT 3.5 responde que:

No entanto, é importante notar que a transferência “zero shot” tem limitações. Nem todas as tarefas podem ser realizadas com sucesso por um modelo de linguagem sem treinamento específico. A transferência “zero shot” é mais eficaz quando as tarefas estão relacionadas e compartilham características semânticas ou estruturais. Além disso, o desempenho na transferência “zero shot” pode variar dependendo da complexidade da tarefa e da qualidade do treinamento prévio do modelo.

Outro ponto diz respeito à relação entre o tempo de processamento do algoritmo e a acurácia do modelo de Inteligência Artificial. Em geral, quanto mais rápido o processamento do algoritmo, pior a acurácia (mais erros a IA terá). Num chatbot, em que as respostas devem acontecer como numa conversa real, a IA não pode esperar 5 minutos ou 1 dia para processar as informações. Neste caso, o ditado “a pressa é inimiga da perfeição” faz todo o sentido e também ajuda a entender as alucinações do ChatGPT.

REFERÊNCIAS:

OBS: A imagem que ilustra este texto original foi criada com a ferramenta DALL-E, que também utiliza o GPT como sistema de Inteligência Artificial Generativa.

Página 3 de 3123