Encontre milhões de e-books, audiobooks e muito mais com um período de teste gratuito

Apenas $11.99/mês após o término do seu período de teste gratuito. Cancele a qualquer momento.

Inteligência Artificial e Direito: Convergência ética e estratégica
Inteligência Artificial e Direito: Convergência ética e estratégica
Inteligência Artificial e Direito: Convergência ética e estratégica
E-book246 páginas2 horas

Inteligência Artificial e Direito: Convergência ética e estratégica

Nota: 0 de 5 estrelas

()

Ler a amostra

Sobre este e-book

IA e DIREITO: convergência ética e estratégica

O mundo do Direito desperta para a Era da Inteligência Artificial (IA). Em uma visão responsável sobre a tecnologia não se pode sustentar uma posição chauvinista, que acreditaria que a tecnologia poderia resolver todas as dificuldades postas ao universo jurídico, tampouco uma visão mítica da IA, centrada na supremacia e frieza da máquina, suplantando a sensibilidade e o senso de justiça humanos.

Uma visão equilibrada da IA para o Direito permitirá percebê-la, primeiramente como estratégica no sentido de geração de benefícios e riquezas, que vão desde a otimização de atividades tipicamente jurídicas até o desenvolvimento de novas habilidades e criação de novos campos de atuação para os profissionais do Direito. O presente livro foi estruturado nessa concepção e buscará contribuir com as necessárias reflexões para esses propósitos.

Essa mesma visão estratégica também está associada ao valor da IA sólida, robusta e confiável. A partir desses requisitos importantes para o desenvolvimento e uso de soluções e sistemas de IA, será desenvolvido, através da observação de modelos estrangeiros e multilaterais, standards para uma IA ética, convergente com os desafios postos ao Direito na contemporaneidade.

Assim, o Livro está estruturado no modelo Overview – Review – Try-out, mostrando necessários referenciais éticos (OCDE, G20 e de experiências internacionais no tema) associados ou não a referenciais normativos. Serão expostas e analisadas também estratégias e diretrizes estabelecidas para o modelo norte-americano, canadense e alemão de IA, com o objetivo de fornecer um suporte para um ensaio objetivo de standards éticos para a IA e o Direito.

O texto foi elaborado com apoio e com criteriosa seleção de artigos acadêmicos e documentos estatais oficiais e busca, sem pretensão de superação, mas perfilado com a literatura em língua nacional produzida, contribuir com o debate ético-normativo da IA no Direito e, se é possível, consolidar algum tipo de catálogo ou de diretrizes pela preocupação ética na aplicação de IA e medidas concretas de aferição, certificação e garantia do fundamento ético.

IA e DIREITO: convergência ética e estratégica – vol. 5 – Coleção Direito, Racionalidade e Inteligência Artificial

Esta Coleção é a expressão escrita de um dos projetos do DR.IA, grupo de pesquisa certificado pela UnB e pelo CNPq. Em um mundo cada vez mais alinhado à tecnologia, o Direito caminha em uma direção de utilização em grande escala de ferramentas de Inteligência Artificial. Por meio dela será possível organizar dados, sistematizar decisões jurisdicionais e maximizar resultados a fim de criar um ambiente propício ao desenvolvimento de teses jurídicas que assegurem a mais adequada aplicação do Direito.

A Coleção proporciona ao leitor uma sistematização das modernas pesquisas sobre I. A. no cenário brasileiro, inserindo-as no contexto de descobertas mundiais, e demonstrando os produtos alcançados.
IdiomaPortuguês
Data de lançamento2 de jun. de 2020
ISBN9786599115561
Inteligência Artificial e Direito: Convergência ética e estratégica

Relacionado a Inteligência Artificial e Direito

Ebooks relacionados

Direito para você

Visualizar mais

Artigos relacionados

Avaliações de Inteligência Artificial e Direito

Nota: 0 de 5 estrelas
0 notas

0 avaliação0 avaliação

O que você achou?

Toque para dar uma nota

A avaliação deve ter pelo menos 10 palavras

    Pré-visualização do livro

    Inteligência Artificial e Direito - Fabiano Hartmann Peixoto

    ético.

    OVERVIEW

    Parte I

    Capítulo I

    INTELIGÊNCIA ARTIFICIAL E

    DIREITO: CONHECIMENTO PARA

    UMA IA CONFIÁVEL, ROBUSTA E

    RESPEITOSA

    The more powerful technology becomes,

    the more it magnifies design errors and human failures.

    An angry man who has only his fists,

    cannot hurt very many people.

    But the same man with a machine gun

    can kill hundreds in just a few minutes.

    Thomas G. Dietterich

    Oregon State University

    1 - INTRODUÇÃO

    Imaginem o seguinte cenário: imagens captadas por uma câmera de vídeo com pouca utilidade na identificação de um fato relevante. Se essas mesmas imagens pudessem permitir a obtenção de muito mais informações detalhadas e eventualmente até auxiliar a elucidação de um acontecimento importante. Isso não está muito distante, pois a resolução de crimes ou uma melhor compreensão de uma situação registrada por uma câmera podem ser auxiliadas por sistemas de inteligência artificial. No MIT CSAIL, centro de pesquisa em inteligência artificial do Massachusetts Institute of Technology, com orçamento robusto e concentração de pesquisadores de ponta, está sendo feita uma pesquisa que usa sombras¹ para reconstruir um vídeo projetado em uma parte invisível de um espaço. Ao observar a interação da sombra e da geometria do vídeo, um algoritmo desenvolvido prevê a maneira como a luz viaja em uma cena. O sistema utiliza essa previsão para estimar o vídeo oculto das sombras observadas. Segundo o CSAIL, o sistema pode auxiliar a entender melhor a visão periférica dos veículos autônomos ou a segurança em sistemas de acompanhamento de idosos entre outras aplicações.

    Saindo dos Estados Unidos, do outro lado do Atlântico, no ICAI – Innovation Center for Artificial Intelligence², que é uma iniciativa da Holanda em desenvolver a tecnologia de Inteligência Artificial (IA) combinando academia, indústria e governo, há concentração de esforços no projeto ELLIS (European Laboratory for Learning and Intelligent Systems-ELLIS³), cujo objetivo é manter a vanguarda na pesquisa em machine learning na Europa. O ELLIS busca desenvolver IA estratégica para as próximas gerações europeias.

    Esses são dois dos muitos retratos que se pode fazer da IA e de seus potenciais, todos com desafios nos planos normativo, ético e social, porque em alguma medida relacionam-se com tarefas feitas pela máquina onde antes só havia a atividade cognitiva humana. Por outro lado, recentemente tem se falado muito e destacadamente que o desenvolvimento sustentável e as práticas de preservação (especialmente do meio ambiente) são questões que vão muito mais além do altruísmo, mas têm repercussões econômicas concretas. Alinhar desenvolvimento com preservação é uma preocupação central. Não é sem razão que entidades com uma ligação forte com a economia tem se preocupado com questões comportamentais e éticas.

    Grandes empresas de tecnologia, reunidas no que se chama de indústria da inteligência artificial, e que com a academia e o governo representam os grandes espaços de discussão sobre a inovação, já manifestaram suas diretrizes concretas sobre a ética e reponsabilidade em IA. G20 e OCDE estão no mesmo caminho e logo mais, neste livro, se falará sobre elas.

    Isso nos sugere duas premissas: a primeira é a de que as pesquisas em IA são estratégicas e movimentam os três espaços: governos, indústria e academia. A segunda, que parâmetros ético-normativos (confiabilidade, robustez, respeito, entre outros) também estão no centro das preocupações.

    Portanto, ao se perceber que a IA deve ser vista dentro de um espectro de relevância, seu conhecimento (potencialidades, riscos, desafios e aplicações) é absolutamente indispensável e urgente. A partir do domínio desse conhecimento, o desenvolvimento e aplicação de sistemas de IA também devem ser garantidos por atendimento a diretrizes éticas igualmente trabalhadas, refletidas, debatidas e transparentes.

    Para tanto, é essencial que a sociedade tenha uma visão o mais clara possível do que são os usos atuais e possíveis de um sistema de IA propriamente dito ou um mero vaporware de IA (que existe há décadas), cujas promessas ainda não se concretizaram. Aí é fundamental ter muito claro o tratamento que se deve dar aos mitos associados à IA⁴, para identificar-se o campo efetivamente pertinente para um debate ético-normativo, por exemplo.

    É importante para o primeiro enfrentamento da relevante questão ética-normativa ter alguns parâmetros: o primeiro deles é uma visão equilibrada dos benefícios dos sistemas de IA. Equilibrada no sentido de balanceada, não tratando a IA com uma visão chauvinista tecnológica (a IA tudo pode e será a salvação!), nem tratando-a como algo maligno ou malicioso, um risco que deve ser negado e combatido, pois inseguro; um campo que deve ser proscrito. Nesse sentido, balanceado, os sistemas de IA devem ser vistos também como uma realidade. Países tradicionalmente associados ao enriquecimento pelo domínio tecnológico estão todos, como política de posicionamento global, movendo-se no sentido de tratar a IA como um ativo.

    Não é à toa que se fala em Era da IA e, portanto, quem mais produzir reflexões, pesquisa, projetos, aplicações de IA, tanto mais poderá se beneficiar ativamente com isso, quanto poderá, preventivamente, diminuir o risco de ser prejudicado pelo mau uso da IA. Aliás, esse é outro parâmetro: é necessária a visão que soluções de IA podem ser usadas para um benefício, individual, mas especialmente coletivo/comunitário – como um auxílio na soluções de problemas sociais, inclusive na concretização de direitos fundamentais; mas também para aplicações maldosas e até criminosas. Serão cada vez mais necessárias soluções de IA para combater o uso inescrupuloso ou criminoso da própria IA.

    O aspecto da segurança (principal argumento negacionista) na forma balanceada também envolve o domínio do conhecimento sobre os limites e possibilidades da IA e seus usos. Além disso, dentro de uma aplicação benéfica, por envolver a reprodução de habilidades cognitivas humanas e, portanto, em alguma medida, reproduzir padrões humanos, toda aplicação de IA pode gerar boas consequências, mas com reflexos individuais e coletivos ruins, que não podem ficar despercebidos. Esse debate sobre limites para a IA deve ser travado.

    Finalmente, se por um lado, um sistema de IA poderia ocasionar a diminuição da interação humana entre si (e isso é negativo). Esse mesmo sistema pode auxiliar (terapeuticamente ou repressivamente) no enfrentamento de comportamentos interativos humanos inadequados ou abusivos. Sempre será um permanente exercício de desenvolvimento metodológico mais consistente possível, com monitoramento contínuo e espaço para ajustes e críticas.

    De tudo isso tem-se que não se pode deixar de lado todas as características de um ambiente inovador colocado ao desenvolvimento da IA. Felizmente, o Brasil está bem postado no cenário internacional e há uma grade oportunidade de desenvolvimento da IA em diversas áreas, inclusive no campo jurídico. Há, no entanto, muitas dúvidas e necessárias questões que precisam ser enfrentadas no desenvolvimento de conhecimento sobre a IA.

    No presente capítulo, para se permitir uma reflexão mais profunda sobre IA, Direito e aspectos éticos, será apresentada uma visão geral sobre diversas iniciativas, experiências e relatos recentes na literatura internacional.

    O objetivo, portanto, desta primeira parte do livro é permitir a identificação pelo leitor de standards de discussão sobre ética na IA, com vistas a fornecer um background às próximas partes do livro, que terão natureza mais analítica e propositiva.

    Marcará a presente parte do livro também o relato de experiências mais gerais sobre a discussão ética e, na medida em que o livro avance e, na medida do possível, a análise e propostas se tornarão mais restritas ao campo temático da IA e Direito.

    2 - DESAFIOS COGNITIVOS PARA UMA DECISÃO COM IA CONFIÁVEL E ROBUSTA

    O MIT-IBM Watson AI Lab pesquisa uma interessante funcionalidade, chamada NeurIPS, em que um algoritmo analisa uma coleção de textos e estrutura uma modelagem de livros por tópicos representativos, em vez de palavras-chave. Além de rapidez no processamento (os pesquisadores compararam 1.720 pares de livros no conjunto de dados do Projeto Gutenberg em um segundo – cerca de 800 vezes mais rápido), isso pode dar um panorama ampliado e mais preciso sobre um tema. A combinação de uma classificação de interesses, com a análise temática e não vocabular, em um número gigantesco de possibilidades, poderá constituir uma poderosa ferramenta sugestiva com impacto substancial em termos de uma cincunscrição de interesses e forte impacto em termos de autodeterminação de vontades.

    Sob a ótica de aprendizado complexo, há outra pesquisa em andamento feita por Wang⁵, que estuda um sistema de apoio em um ambiente domiciliar. Ao contrário da robótica industrial, habitualmente executora de tarefas repetitivas e de precisão, um robô (mordomo) doméstico é submetido a uma variedade de tarefas, incertas. Cabe ao sistema de inteligência entender como as coisas funcionam e alimentar um sistema preditivo para fazer escolhas eficazes e seguras. Então, ao menos sob uma lógica incipiente, é possível se associar IA a decisões complexas imprevistas com possibilidade de interferências fortes nos desígnios de pessoas.

    Em 2016, foi notícia mundial que um motorista de um carro da Tesla morreu, na Flórida, quando estava usando o dispositivo de direção autônoma. O veículo se chocou com um caminhão e o motorista não percebeu, segundo testemunhas, porque assistia a um filme de Harry Potter⁶, enquanto o dispositivo pilotava o carro. No mesmo dia, em um contraponto na Reuters⁷, David Shepardson e Bernie Woodall apresentaram pesquisas que apontavam que 90% dos acidentes automobilísticos são causados por erros humanos e em que pese a máquina também errar, o percentual seria menor. Além de veículos autônomos, poderia se estar mencionando riscos em armamentos autônomos, robôs realizando procedimentos diagnósticos ou assistência médica, sistemas de IA na gestão de recursos humanos, na segurança cibernética, na predição de potencial de reincidência em crimes, na sugestão para procedimentos administrativos de investigação,

    Está gostando da amostra?
    Página 1 de 1