As ferramentas de Inteligência Artificial, em especial as generativas, têm o potencial de provocar uma nova revolução industrial e sua rápida adoção exige um esforço para garantir que o impacto da IA na sociedade seja regulado com participação social e transparência. A preocupação reside no fato de ainda serem desconhecidos os impactos da IA na sociedade, por isso iniciativas como a carta do instituto Future of Life dialogam com o “Princípio da precaução”, muito comum na área ambiental, medida que assegura a sustentabilidade do planeta.

Além da desinformação, o desemprego estrutural é uma ameaça a trabalhadores cujos ofícios têm potencial para serem automatizados pela Inteligência Artificial. A carta do instituto Future of Life elenca algumas destas demanda para o enfrentamento desse cenário:

Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema.
[…] os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Estes devem incluir, no mínimo: autoridades reguladoras novas e capazes dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional; sistemas de proveniência e marca d’água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados ​​pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições com bons recursos para lidar com as dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará (FUTURE OF LIVE, 2023, tradução nossa).

Algumas das sugestões já estão em processo de incorporação pelas ferramentas dentro do estabelecimento de boas práticas para a IA Generativa, tais quais a citação das fontes utilizadas e o treinamento de IA apenas utilizando como base material previamente autorizado.

Estas ações por parte das próprias empresas dialogam com o “Dever de Cuidado”, situação em que as ferramentas se responsabilizam pelas consequências do mau uso das mesmas. Este pensamento fez com que gigantes como Google e Facebook não lançassem como produto, até então, as ferramentas de inteligência artificial que desenvolviam em seus laboratórios.

A popularização do ChatGPT, entretanto, causou uma corrida desenfreada pelo desenvolvimento de novas aplicações de IA, fato que coloca um ponto de atenção sobre as questões éticas envolvidas, principalmente a partir da demissão em massa das equipes responsáveis por esta análise em alguns das principais Big Techs (CRIDDLE, 2023).

A autorização de uso de aplicações de IA na área médica já foi normatizada no Brasil pela Anvisa, mas para o caso das IAs Generativas focadas para o público em geral, a certificação de ferramentas que utilizam repositórios confiáveis seria fundamental a fim de evitar desinformação. Já existem selos como o HONcode e o “Selo Sergio Arouca de Qualidade da Informação em Saúde na Internet”. Quanto aos repositórios, podemos citar o ARCA para artigos científicos e o PCDaS para dados estruturados.

Assim como os curadores da Wikipédia ajudam a prevenir que a plataforma reproduza preconceitos, informações equivocadas de colaboradores mal intencionados e propaganda disfarçada de conteúdo informativo, é preciso estabelecer mecanismo de aprendizagem por reforço a partir de feedbacks (RLHF) por parte de estudiosos no tema.

Para além da marca d’água sugerida pelo instituto Future of Life, outra ação importante seria no sentido de obrigar as ferramentas a incluir um identificador nos metadados de fotos e vídeos gerados por IA, assim como já acontece nas câmeras fotográficas que registram no arquivo informações como modelo da câmera, abertura de íris, lente utilizada, entre outros dados. Em sentido similar, o rastreamento digital dos conteúdos gerados via IA poderia ser verificado por meio da Blockchain, em funcionamento similar à geração de NFTs. Se tal medida infringir os ditames da LGPD, a verificação pode ser apenas booleana, retornando somente dois valores: 1 – Produzido por IA; 2 – Não produzido por IA.. Este sistema de verificação funcionaria como um plataforma de Fact checking, evitando assim a desinformação a partir da disseminação de mídia sintética ou deepfake.

Também fundamental é a transparência sobre o funcionamento da IA, condição chamada de “explicabilidade” ou “interpretabilidade”. Adicionalmente, as respostas de IA deveriam exibir as métricas para avaliação de sua confiabilidade, como acurácia e precisão.

Ainda na mesma linha, a adoção de padrões abertos permitiria a interoperabilidade das informações que devem ser entendidas como um bem público, sejam elas de Open Health ou Open Science.

Por último, o papel da regulação legal/infralegal, garantindo que os direitos fundamentais do cidadão sejam assegurados como o Direito à Saúde e o Direito à Comunicação, tão caros numa sociedade desigual como a brasileira.

O Projeto de Lei 21/2020 objetiva criar um Marco Legal da Inteligência Artificial. O texto inicial previa a criação de um “relatório de impacto”, além da responsabilização legal dos agentes de IA, sejam eles desenvolvedores como também as empresas que implementam as aplicações. Mesmo sendo aprovado pela Câmara dos Deputados em 2021, não seguiu adiante e já é considerado obsoleto.

Por este motivo, um grupo de juristas formou uma comissão para construir um anteprojeto em 2022 que fosse atemporal e não se tornasse obsoleto com a evolução tecnológica. Além do PL 21/2020, o anteprojeto visa substituir outros projetos de lei (PL 5.051/2019 e PL 872/2021) que tratam do mesmo tema. A proposta é que, com a regulamentação, as ferramentas possam “obedecer a princípios como liberdade de escolha, transparência, rastreabilidade de decisões, responsabilização, reparação de danos, inclusão e não-discriminação” (FRAGOSO, 2022), assegurando a explicabilidade e a privacidade de que tratamos ao longo deste artigo.

Esta última proposta foi apresentada oficialmente pelo presidente do Senado Federal, Rodrigo Pacheco, na forma do Projeto de Lei n° 2338/2023.

Ainda estamos no início da adoção da IA pela sociedade em geral e esperamos que os princípios e diretrizes do SUS pautem o uso da Inteligência Artificial na Saúde, promovendo universalização, equidade, integralidade, regionalização, hierarquização, descentralização e participação social, além de associar sua implementação no SUS ao desenvolvimento tecnológico pelo Complexo Econômico-Industrial da Saúde (CEIS) como um dos principais pilares da Quarta Revolução Tecnológica.

physician robot doctor hospital artificial intelligence ai generative health

RERERÊNCIAS:

ANVISA. RESOLUÇÃO DE DIRETORIA COLEGIADA – RDC No 657, DE 24 DE MARÇO DE 2022 – RESOLUÇÃO DE DIRETORIA COLEGIADA – RDC No 657, DE 24 DE MARÇO DE 2022 – DOU – Imprensa Nacional. Disponível em: https://www.in.gov.br/en/web/dou/-/resolucao-de-diretoria-colegiada-rdc-n-657-de-24-de-marco-de-2022-389603457. Acesso em: 25 abr. 2023.

BRASIL. Senado Federal. Projeto de Lei nº 2.338, de 3 de maio de 2023. Dispõe sobre o uso da Inteligência Artificial. Brasília: Senado Federal, 2013. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 9 mai. 2023.

CRIDDLE, C.R. Big techs geram preocupação ao demitir equipes que cuidavam de ética em IA. Folha de S. Paulo, 29 mar. 2023. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/big-techs-geram-preocupacao-ao-demitir-equipes-que-cuidavam-de-etica-em-ia.shtml. Acesso em: 25 abr. 2023.

Ep.129 – O que é Chat GPT e qual seu uso na saúde?. [Locução de:] Fernanda Velloni, Felipe Kitamura, Giancarlo Domingues. [S. l.]: DASA EDUCA, 23 fev. 2023. Podcast. Disponível em: https://www.youtube.com/watch?v=CfWTbzK3V-s. Acesso em: 25 abr. 2023.

FRAGOSO, R. Comissão de juristas aprova anteprojeto do marco legal da inteligência artificial. Rádio Senado, 1 dez. 2022. Disponível em: https://www12.senado.leg.br/noticias/audios/2022/12/comissao-de-juristas-aprova-anteprojeto-do-marco-legal-da-inteligencia-artificial. Acesso em: 25 abr. 2023.

FUTURE OF LIFE. Pause Giant AI Experiments: An Open Letter – Future of Life Institute. Disponível em: https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Acesso em: 23 abr. 2023.

GADELHA, C. A. G.; TEMPORÃO, J. G. Desenvolvimento, inovação e saúde: a perspectiva teórica e política do Complexo Econômico-Industrial da Saúde. Ciência & Saúde Coletiva, Rio de Janeiro, v. 23, n. 6, p.1891-1902, 2018. DOI: https://doi.org/10.1590/1413-81232018236.06482018.

GADELHA, C. A. G. O Complexo Econômico-Industrial da Saúde 4.0: por uma visão integrada do desenvolvimento econômico, social e ambiental. Cadernos do Desenvolvimento, Rio de Janeiro, v. 16, n. 28, p. 25-49, 2021. Disponível em: http://www.cadernosdodesenvolvimento.org.br/ojs-2.4.8/index.php/cdes/article/view/550. Acesso em: 25 abr. 2023.

GADELHA, C. A. G. (org.). Saúde é Desenvolvimento: o Complexo Econômico-Industrial da Saúde como opção estratégica nacional. Rio de Janeiro: Fiocruz – CEE, 2022.

GOLDIM, J. R. Princípio da Precaução. Disponível em: https://www.ufrgs.br/bioetica/precau.htm. Acesso em: 25 abr. 2023.

LIMA, J. DA C. Desafios para a adoção de Inteligência Artificial pelo Sistema Único de Saúde (SUS): ética, transparência e interpretabilidade. Tese (Doutorado em Informação e Comunicação em Saúde) – Instituto de Comunicação e Informação Científica e Tecnológica em Saúde, Fundação Oswaldo Cruz, Rio de Janeiro, 2022.

SANTOS, A. W. C.. Inteligência Artificial Generativa, dados pessoais e Literacia Digital em Saúde: possibilidades, desigualdades e limites. Disponível em: https://arthurwilliam.com.br/wp-content/uploads/2023/05/Inteligencia-Artificial-Generativa-dados-pessoais-e-Literacia-Digital-em-Saude-Arthur-William-Cardoso-Santos.pdf. Acesso em: 31 mai. 2023.

WIGGERS, K. With Firefly, Adobe gets into the generative AI game. TechCrunch, 21 mar. 2023. Disponível em: https://techcrunch.com/2023/03/21/adobe-firefly-generative-ai/. Acesso em: 25 abr. 2023.

Arthur William Cardoso Santos
Arthur William Cardoso Santos

Arthur William Santos é mestre em Educação, Cultura e Comunicação (UERJ), pós-graduado no MBA de TV Digital, Radiodifusão e Novas Mídias de Comunicação Eletrônica (UFF), graduado em Comunicação Social / Jornalismo (PUC-Rio) e técnico em eletrônica (CEFET-RJ). Foi gerente executivo de Produção, Aquisição e Parcerias na EBC, além de gerenciar o setor de Criação de Conteúdos e coordenar as Redes Sociais da TV Brasil. Liderou também a área de Inovação/Novos Negócios na TV Escola. Atuou ainda na criação do Canal Educação e do Canal LIBRAS para o Ministério da Educação (MEC). Fez cursos presenciais em Harvard e Stanford sobre Inovação na Educação. Deu aulas em cursos de graduação e pós-graduação nas universidades UniCarioca, Unigranrio, FACHA, INFNET e CEFOJOR (Angola). É membro da SET (Sociedade de Engenharia de Televisão).

Share This