Riscos e explicabilidade a partir da inteligência artificial como não-coisa
Resumo
Partindo-se da premissa de que a IA é composta por algoritmos que atuam sobre dados e adotando-se o método dedutivo, assume-se a IA como não-coisa e discute-se sobre riscos decorrentes de sistemas de IA, trabalhando especialmente os riscos de não se entender um algoritmo e a tomada de decisão automatizada. Assim, apresenta-se e trabalha-se a necessidade de se alcançar a explicabilidade em sistemas de IA, ou IA Explicável ou AI Explainable ou XAI, passando por responsabilidade, complexidade, verificabilidade e transparência. O artigo possui uma concepção jurídico-filosófica a partir da filosofia de Byung-Chul Han (2022) sobre não-coisas, trabalhando os riscos advindos de sistemas de IA e a explicabilidade de tais sistemas como elementos que permeiam o futuro da aplicação dos sistemas de IA na Era das Não-Coisas.Downloads
Publicado
2025-02-01
Edição
Seção
Seção A: Artigos Convidados (Invited Papers)