Se 2021 foi um ano de desafios para as empresas, 2022 traz uma série de excelentes perspectivas para os negócios. Muitas delas relacionadas ao uso de mecanismos baseados em inteligência artificial (IA).
As possibilidades são muitas: sistemas que fazem análises preditivas a partir de uma grande massa de dados, mecanismos que realizam reconhecimento facial para diversos fins (como liberação de acesso ao usuário, acesso a ambientes físicos, busca de pessoas em espaços públicos), além de ferramentas automatizadas de decision making, uso de veículos autônomos, programas capazes de analisar grande quantidade de textos, que otimizam preços de produtos e serviços para os consumidores e sistemas dedicados à resolução de problemas com clientes.
A presença massiva de ferramentas de IA em nosso cotidiano tem seu reflexo na regulação jurídica, levando à criação de normas para estabelecer regras de uso dessa tecnologia. O grande desafio é saber como utilizar essas ferramentas sem que elas atraiam mais riscos do que lucros para o negócio. Do ponto de vista jurídico, é importante avaliar a forma e a finalidade de emprego da tecnologia, para que um recurso poderoso e promissor não se transforme em uma ameaça. As empresas devem estar atentas às questões de conformidade.
O uso e tratamento de dados pessoais, por exemplo, requer atenção à Lei Geral de Proteção de Dados (LGPD) – Lei 13.709/18. Ao utilizar ferramentas baseadas em IA que lancem mão de dados pessoais, será necessário, sobretudo, definir a finalidade precisa da operação, garantir a utilização apenas dos dados necessários para essa finalidade e entender qual justificativa legal respalda o uso da ferramenta.
A elaboração de um Relatório de Impacto à Proteção de Dados Pessoais específico, com riscos e salvaguardas adotadas, pode ser muito útil, demonstrando a preocupação e a diligência da empresa em relação ao tema. Em processos de decisão automatizada que utilizem dados pessoais, é importante assegurar mecanismos que permitam a revisão da decisão, já que esse é um direito do titular dos dados (art. 20 da LGPD).
Também é importante contar com frameworks ético-legais de desenvolvimento e utilização das ferramentas de inteligência artificial, que possibilitem maior transparência, aplicação ética e eliminação de qualquer prática discriminatória nos processos.
Algumas perguntas precisam ser respondidas. Por exemplo, como a ferramenta recebe os dados que vai usar (de forma automatizada, coleta em mar aberto e em bases públicas, por meio de inputs de colaboradores da empresa etc.)? Há risco de os inputs terem origem em bases contaminadas por alto grau de discriminação? A aplicação da ferramenta é supervisionada? Existe transparência nos processos desenvolvidos? Foram detectados desvios nos resultados (muitas vezes ilegais) que recomendem melhor desenho do mecanismo?
A elaboração de um Relatório de Impactos Algorítmicos (Algorithimics Impact Assessment – AIA) pode ser útil nesses casos, pois auxilia na análise das consequências do uso da tecnologia da inteligência artificial, desde a fase de desenvolvimento até o uso efetivo.
Merece também destaque a recente Norma ISO IEC 24027:2021, de novembro de 2021, que traz diretrizes em relação à existência de vieses em tecnologias de inteligência artificial, principalmente considerando ferramentas utilizadas para a tomada de decisões.
Esses vieses podem ser entendidos como deficiências estruturais no desenho da ferramenta ou dos inputs fornecidos por humanos que a alimentam ou do próprio ecossistema de coleta de dados.
A regulação do tema avança no país e 2022 deve se revelar um ano decisivo, pois se dará continuidade à implementação da Estratégia Brasileira de Inteligência Artificial – Ebia. No Congresso Nacional, a expectativa é que os debates sobre os marcos regulatórios da inteligência artificial continuem e se definam as normas que serão aplicadas no Brasil.