fbpx
Enviesamento

Valorizemos a tecnologia sim, mas muita atenção com o enviesamento

BlogPosts
Nenhum comentário

A necessidade e a importância de evolução tecnológica são tão evidentes quanto inquestionáveis, mas exageros precisam ser evitados.

E essas questões, inclusive éticas, dependem de todos nós (e não apenas de cientistas e de programadores).

Atualmente festejamos a automação, a necessidade de “business intelligence”, os “softwares/sistemas”, os robôs, a inteligência artificial, os algoritmos, os supercomputadores… Mas devemos ter muito cuidado com o risco de enviesamento.

As premissas são fundamentais e merecem revisão constante, por humanos. As máquinas ainda não fazem isso e temos que manter muita atenção e cuidado total nessa questão.

Será que o “sempre foi assim”, ou o “geralmente funciona assim” devem se transformar em verdades absolutas e nortear decisões importantes? Precedentes e estatísticas devem ser absolutos?

A Advocacia Corporativa comemora a chegada de sistemas e de métodos de se estimar as chances de vitória em processos, os valores e várias outras variáveis que ajudam a planejar, a economizar, a pensar em estratégias que são realmente importantes para as empresas.

São pontos muito importantes para que elaboremos planejamento estratégico, por exemplo. E que ajudam a tomar decisões.

A questão, porém, está em onde colocaremos o limite?

Já se fala em robôs (sistemas) julgando processos, com a chegada do processo totalmente eletrônico e automatizado. Será bom em muitos casos, mas quem decidirá as exceções?

Devemos nos lembrar de que o possível excesso da massificação de estimativas e de decisões, bem como dos precedentes, pode levar a erros extremamente perigosos, ao se afastar o exame de situações “caso a caso”.

Quanto mais massificadas e automatizadas forem as análises e as decisões, com menor participação humana, mais os padrões, as premissas e os precedentes serão simplesmente reproduzidos.

Veja também: A Inovação e a Tecnologia como Aliados da Advocacia Corporativa

Quando a decisão for “correta” será ótimo, mas e quando não for?

Como na maioria dos casos a automação pressupõe a repetição pura e simples, sistemas que coletem, organizem e analisem dados, que mapeiem e que avaliem precedentes são muito úteis – mas é preciso que nos lembremos de que o possível abuso dos precedentes (e das repetições estatísticas) pode levar a decisões baseadas em premissas equivocadas ou gerais demais.

Os “acidentes” e os “detalhes”, as “características específicas” e as condições em determinados casos podem (e talvez até devam) ser realmente analisadas e pensadas, mas estão os “softwares” e programas preparados para pensar? Ou o “machine learning” ainda precisará de um tempo (quanto?) para realmente pensar e avaliar situações específicas?

Computadores e sistemas por enquanto ainda não aprenderam a realmente pensar e a elaborar perguntas “pela primeira vez”, reproduzindo situações e respostas para os quais foram programados e considerando as informações, perguntas e os comandos que lhes foram “ensinados”.

São ótimos para responder e reproduzir, poupando energia, tempo e custo, mas o que acontece quando novas perguntas forem necessárias, especialmente perguntas que não tinham sido pensadas pelos programadores?

Alguns dos exemplos mais conhecidos desse tremendo risco passam, por exemplo, pela possível perpetuação de injustiças sociais, de padrões e de preconceitos que geram estatísticas que apesar de existirem e de serem tecnicamente reais, precisam ser mudadas.

Se considerarmos ocorrências policiais, violência, preconceitos (idade, cor/raça, gênero, religião, necessidades especiais, etnias etc.) em geral, a perpetuação das estatísticas, sem que se reflita sobre os precedentes e os casos em que é justamente necessário que se altere o que está errado e viciado, será perigosa.

Em várias localidades do País (talvez em todas) a população carcerária, assim como a envolvida em violência, tem alta participação de jovens negros, carentes e moradores das periferias, o que, por exemplo, pode levar sistemas a “entenderem” que esse é o perfil dos culpados – e a “pré-julgar” situações de maneira massificada e repetitiva, reproduzindo estatísticas e padrões. É um risco enorme!

Será que é isso o que queremos? E quando tivermos enormes injustiças cometidas por “robôs e softwares”, baseadas em automação e em estatísticas, bem como em tecnologia, como lidaremos com elas?

Na mesma linha, e apenas num outro tipo de exemplo, o transporte autônomo em carros, navios, trens, ônibus, aviões e foguetes (para citar apenas alguns exemplos) tende a ser uma realidade, e muito positivo nos próximos anos, mas a depender das informações que sejam colocadas nos sistemas, e dos precedentes, para que sirvam de base para a tomada de decisão, erros enormes podem surgir em situações em que o precedente deva justamente ser mudado.

A padronização retira o olhar crítico, a criatividade e a inovação. Queremos isso?

O olhar humano é extremamente importante, e precisa ser mantido, pois apenas humanos conseguem considerar o respeito, a empatia, o cuidado, as emoções e os sentimentos – que em muitos casos precisam ser considerados para que se tome decisões melhores.

O risco que vemos é o do exagero, pois o abuso das estatísticas e dos precedentes pode levar, em muitos casos, a que se entenda (a máquina entenda) que esse ou aquele  padrão, em função da quantidade de vezes em que se mostrou “correto” no passado, seja o único, ou que seja o que deve ser seguido.

Tanto linhas jurídicas de negociação, quanto de tomada de decisão, ou de defesa, ou de análises de cenários (por exemplo) podem ser baseadas em caminhos únicos, a depender das premissas e dos dados.

Estão as maquinas atuais a considerar realmente todos os detalhes e circunstâncias de casos ainda não pensados?

Lembremo-nos de frase muito citada (mas nem sempre lembrada) de que o segredo está nas perguntas certas e não “apenas” nas respostas. E muitas vezes o “certo” e o mais inteligente depende de uma nova pergunta.

Ademais, se chegarmos ao mundo da padronização e da automação exagerada, o direito passará a ser apenas uma máquina, deixando de ser a ciência que é, e abandonará a beleza da criação, da argumentação – e até mesmo da incerteza que em muitos casos é fundamental.

Para que precisaremos de advogados e de juízes, se “tudo” já tiver sido pensado e informado às máquinas e aos robôs?

Essa situação limite dificilmente ocorrerá, pois seria absurda, mas propomos que nos lembremos da importância do equilíbrio, para que não corramos o risco do exagero – do qual certamente nos arrependeremos.

O segredo sempre está no equilíbrio!!

Biografia do autor

Leonardo Barém Leite é advogado em São Paulo, especializado em negócios e em advocacia corporativa, sócio sênior da área empresarial de Almeida Advogados, com foco em contratos e projetos, societário, governança corporativa, “Compliance”, fusões e aquisições (M&A), “joint ventures”, mercado de capitais, propriedade intelectual, estratégia de negócios, infraestrutura e atividades reguladas. Formado em Direito pela Universidade de São Paulo (“São Francisco”) com especialização em direito empresarial. Pós-graduado em administração e em economia de empresas pela EAESP-FGV/SP, bem como em Gestão de Serviços Jurídicos pela mesma instituição. Pós-graduado em “Law & Economics” pela Escola de Direito da FGV/SP, especializado em Direito Empresarial pela Escola Paulista da Magistratura (EPM) e em Conselho de Administração pelo IBGC/SP. Mestre em “Direito Norte Americano e em Jurisprudência Comparada” pela “New York University School of Law” (NYU/EUA). É membro de diversos conselhos de instituições brasileiras e internacionais, autor de diversas obras sobre gestão jurídica estratégica e direito empresarial, professor em cursos de pós-graduação. Integra várias comissões e comitês de advocacia corporativa em São Paulo e em outros estados. É professor em cursos de pós-graduação em gestão de departamentos jurídicos de empresas na FIA e na FAAP, em São Paulo, e autor de livros sobre o assunto. Foi sócio sênior do escritório “Demarest e Almeida – Advogados” onde atuou por mais de 20 anos, e também advogado estrangeiro no escritório “Sullivan & Cromwell” em NY e na Europa nos anos 1990.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Preencha esse campo
Preencha esse campo
Digite um endereço de e-mail válido.
Você precisa concordar com os termos para prosseguir

Posts Recentes

Menu
Bitnami