Certamente há muitos pontos de atenção referentes à IA, onde o que se pretende é avaliar e minimizar riscos que os sistemas possam acarretar. Expressões-chave comuns na discussão são “IA centrada no humano”, “IA com base ética”, “IA que não aprofunde vieses e preconceitos”. Especificamente sobre vieses a discussão se intensifica quando envolve “decisões por IA”, como tem ocorrido quando a IA se envolve em processos judiciais e julgamentos. Sua capacidade de digestão da imensa massa de dados, historicamente gerada pelos humanos, torna a IA num auxiliar muito importante para abarcar o que existe. Mas daí a que se respaldem decisões autônomas da IA, vai ainda uma grande distância.
Ao usar formas de “aprendizagem”, especialmente as não assistidas por humanos, as conclusões a que a máquina chega são, naturalmente, apenas resultantes dos dados que a treinaram. Dados enviesados podem gerar aprendizado vicioso, ou simplemente incompleto. Mas o interessante é que, mesmo com dados neutros, as “decisões” podem ser julgadas inadequadas do ponto de vista humano. Ou seja, pode ser importante introduzir um “vies humano” nas decisões de IA, mesmo quando, em tese, ela está usando bases neutras. Nesse tema, surge hoje é um novo conceito: o de “desaprendizagem” de máquina. Formas de fazer com que determinados aspectos ou conjuntos de dados passem a ser ignorados no processo de aprendizagem - uma espécie de esquecimento seletivo. Vários artigos de conhecidos especialistas na área defendem que, com uma seletiva ação de “desrendizagem” IA poderia geral resultados mais próximos dos objetivos éticos e sociais que se espera, entre eles mais inclusão, justiça e
equidade. O alerta aqui é que se abre uma porta para manipulação eventualmente não controlável do que a ferramenta geraria per se.
equidade. O alerta aqui é que se abre uma porta para manipulação eventualmente não controlável do que a ferramenta geraria per se.
Quanto ao tema de legislação, entre as várias propostas que circulam por aí há as que responsabilizariam o desenvolvedor por eventuais danos que a IA gere. Em analogia com outras ferramentas, seria como responsabilizar o inventor do martelo por danos que ele causar. Quem maneja um martelo é que deve assumir a responsabilidade pelo que faz. O martelo em sí não é ético nem aético.
São decisões complexas, e devemos ter cautela nos passos a dar. Os “apocalípticos” citariam Heidegger, que era bastante crítico quanto aos efeitos da tecnologia nos humanos. Em em sua última entrevista (1966), ele fecha com: “...só um deus poderá nos salvar!”
===
a frase de Heidegger:
https://en.wikipedia.org/wiki/Only_a_God_Can_Save_Us#:~:text=The%20title%20derives%20from%20a,a%20god%20can%20save%20us.
===
https://en.wikipedia.org/wiki/Only_a_God_Can_Save_Us#:~:text=The%20title%20derives%20from%20a,a%20god%20can%20save%20us.
===
texto sobre tecnologia e filosofia:
https://www.sfu.ca/~andrewf/books/Essentialism_Constructivism_Philosophy_Technology_Crossroads.pdf
https://www.sfu.ca/~andrewf/books/Essentialism_Constructivism_Philosophy_Technology_Crossroads.pdf
===
Sobre "desaprendizado":
https://www.infopedia.pt/dicionarios/lingua-portuguesa-aao/desaprender
Nenhum comentário:
Postar um comentário