• Vanessa Fusco Nogueira Simoes

Inteligência artificial: em que este fenômeno nos afeta?



Nos últimos meses ouvimos quase que diuturnamente palavras até então desconhecidas por nós, profissionais do direito e que, quer queiramos ou não, batem à porta e entram em nossas vidas, anunciando que vieram para ficar. São elas: inteligência artificial, blockchain, criptomoedas, bots. As novas tecnologias estão inexoravelmente presentes em nossas vidas, ainda que não saibamos exatamente o significado destes termos. Assim é que quando vamos enviar uma mensagem naquele ícone “ajuda” ou “fale conosco” de uma determinada empresa, digitamos ansiosos e imediatamente recebemos uma resposta: claro, de um robô, ou melhor, de um bot. E assim também nos serviços de atendimento ao cliente por telefone, em ligações para ofertas de produtos, etc: tudo controlado por estes bots, que tem os mais diversos nomes para parecerem amigáveis e até humanos: Bia, de um Banco privado; Lu de uma loja de eletrodomésticos, Vivi de uma operadora de telefonia, e assim por diante (estes bots operam os chamados chatbots).


Na definição de Rodrigo Loureiro em artigo no site Olhar Digital, “bot é um programa de computador que foi fabricado para automatizar procedimentos, geralmente repetitivos, com o objetivo de auxiliar as pessoas. A palavra “bot” vem do inglês robot. Ou seja, um bot nada mais é que um robô, mas que existe apenas em formato digital”. Estes bots podem ser usados para o bem e também de forma maliciosa. Nas últimas eleições presidenciais brasileiras, por exemplo, a Fundação Getúlio Vargas observou que, no caso do Twiter, o percentual de interações (retuítes) motivadas por robôs nas discussões sobre os presidenciáveis manteve-se acima dos 10%. Tal realidade fez nascer a indagação para os mais afoitos em discutir política nas redes sociais: você já discutiu com um robô hoje?


Assim é que na nova era da tecnologia nós os profissionais do direito estamos atônitos. E neste momento em termos de persecução criminal principalmente, “sobreviverá o mais apto”, pois a inteligência artificial – abreviada em inglês como IA – avança implacavelmente e já afeta uma ampla gama de fatores econômicos e sociais. Segundo a OECD – Organization for Economic Co-operation and Development mais de 50% das transações financeiras globais são sustentados por AI[1].


Por consequência, e como seria esperado, a tecnologia também atrai criminosos. Demonstrando a relevância deste cenário, a INTERPOL lançou recentemente um Relatório denominado “Inovation Report: Artificial Intelligence”[2] onde consigna sua preocupação com o tema das novas tecnologias e a migração de criminosos para a prática de crimes neste ambiente. O relatório traz recomendações para que “as polícias a nível mundial construam estratégias, invistam em especialistas, assegurem a ética e justiça nos procedimentos, bem como a transparência no policiamento envolvido com a IA”.


Mas então voltemos à nossa pergunta inicial: em que a Inteligência Artificial vai nos afetar? Já nos afeta em praticamente tudo e cada vez mais este conhecimento deverá ser incorporado aos atores do sistema de justiça criminal. Podemos prever que daqui a uma década já não se farão investigações que não envolvam a IA de alguma maneira. Cite-se por exemplo os Bancos. Nós os usuários estamos interagindo diariamente com os bots e na hipótese de ocorrência de uma fraude, a quem se responsabilizar? Segundo a FEBRABAN, uma tendência prevista para 2019 é atuação de robôs nos bastidores das instituições, por meio da Automação Robótica de Processos (RPA, na sigla em inglês). Com a ajuda da inteligência artificial, os robôs serão usados para aumentar a eficiência operacional e automatizar atividades internas dos bancos. Este é só um dos setores que estão fortemente investindo na inteligência artificial. E não para por aí. Com relação às investigações criminais envolvendo o crime de lavagem de capitais, também a IA já vem trazendo grande transformação. Nos dados apresentados pela FEBRABAN, 80% das instituições do setor disseram que apostam em IA e computação cognitiva para atender aos movimentos de mercado[3].


Além da preocupação da INTERPOL com os rumos da IA e a investigação e persecução penal, a Comissão Europeia também discute a matéria, sob uma outra perspectiva. Recentemente foi lançada pela referida Comissão um esboço de um plano de diretrizes para trabalhar a ética na temática da Inteligência Artificial (AI HLEG Draft Ethic Guidelines[4]). As orientações que norteiam citado documento, ainda em discussão, são: “assegurar que a IA seja centrada no ser humano - a IA deve ser desenvolvida, implantada e usada com um propósito, fundamentada e reflexiva dos direitos fundamentais, dos valores sociais e da ética; nos princípios de beneficência (fazer o bem), da Não-Maleficiência (não causar dano), da autonomia dos seres humanos, e de Justiça e Explicabilidade. Isso é crucial para trabalhar em direção à AI Confiável”.


O avanço tecnológico que se pretende no Ministério Público mineiro, apostando na inserção da Inteligência Artificial para a otimização e melhoria da atuação ministerial na atividade fim não pode ser desacompanhado da capacitação de seus membros e servidores. Passa certamente pelo estabelecimento de padrões éticos mínimos. De fato, há preocupações sobre privacidade e direitos civis relacionados à IA. A Interpol cita como exemplo a tecnologia de reconhecimento facial. A tecnologia de reconhecimento usada na identificação de criminosos carrega “riscos de erros e abuso ”de acordo com um relatório da NBC News (2018)[5]. Também foi descoberto que os algoritmos de reconhecimento facial têm dificuldades em distinguir rostos de pessoas com pele escura, o que poderia levar a um potencial abuso da tecnologia, aponta o documento da INTERPOL.


Assim é que a possibilidade de erros e abusos neste ambiente deve instigar a discussão sobre a minimização de riscos na adoção da inteligência artificial. A iniciativa de utilização de novos recursos tecnológicos deve vir sempre acompanhada de cautela e sobretudo de investimento em capacitação de seus usuários e destinatários, levando em conta a complexidade das consequências que a inteligência artificial envolve. Afinal, deve ser fundamental saber se estamos ou não interagindo com um ser humano ou um robô.





NOTAS


[1] SUMMARY OF THE CDEP TECHNOLOGY FORESIGHT FORUM ECONOMIC AND SOCIAL IMPLICATIONS OF ARTIFICIAL INTELLIGENCE. Disponível online na URL << http://www.oecd.org/sti/ieconomy/DSTI-CDEP(2016)17-ENG.pdf>> Consultado em 12/01/2019.



[2] Relatório 2018 INTERPOL disponível online na URL<file:///C:/Users/fusco/Downloads/Artificial%20Intelligence_1546707690%20(2).pdf> Consultado em 12/01/2019.


[3] Dados disponíveis em URL<< https://www.itforum365.com.br/tecnologia/10-tecnologias-que-estarao-na-mira-dos-bancos-em-2019/>> Consultado em 12/01/2019.



[4] Documento disponível online na URL << file:///C:/Users/fusco/Downloads/AIHLEGDraftEthicsGuidelinespdf%20(1).pdf>>


[5] Notícia disponível em URL << https://www.nbcnews.com/news/us-news/facial-recognition-gives-police-powerful-new-tracking-tool-it-s-n894936>>



Vanessa Fusco Nogueira Simões é Promotora de Justiça do Estado de MG, instrutora certificada de Investigação em mídias sociais (SMIA)- MCFEE Institute USA.

Faculdade de Direito da UFMG

Av. João Pinheiro, nº 100 - Centro CEP 30130-180

Centro - Belo Horizonte Tel: 31-3409-8650

Escola Judicial Militar

Rua Tomáz Gonzaga, nº 686 - Lourdes CEP 30180-143

Belo Horizonte Tel: 3274-1566

TJM-MG