No controle da inteligência artificial, arriscamos o futuro

Continuamos com instituições e sistemas regulatórios que, na melhor das hipóteses, são funcionais em relação à tecnologia da revolução digital e informacional, mas que estão obsoletos para regular as tecnologias da inteligência artificial.

Os desafios da governança da inteligência artificial para o futuro

Os avanços na inteligência artificial (IA) e na biotecnologia, exacerbados no imaginário popular pelo discurso transhumanista, tornaram a governança da tecnologia um problema inevitável na agenda política. Talvez não pareça mais melodramático dizer que se trata de uma questão em que arriscamos o futuro.

Continuamos, no entanto, com instituições e sistemas regulatórios que, na melhor das hipóteses, são funcionais em relação à tecnologia da terceira revolução industrial (revolução digital e informacional), mas que estão obsoletos para regular as tecnologias da quarta (união de sistemas de tecnologias , em particular IA e redes de sistemas inteligentes, robótica, a Internet das coisas, novas tecnologias de materiais, nanotecnologia e biotecnologias). Essa revolução, segundo os principais analistas, já começou.

Como bem explica o filósofo Luciano Floridi em seu livro A Quarta Revolução , o desafio que temos diante de nós não é tanto o das inovações tecnológicas em si, mas o da governança do próprio digital. No entanto, grande parte da sociedade não parece levar esse problema muito a sério. Alguns legisladores e especialistas estão cientes da magnitude do desafio, mas há dúvidas razoáveis ​​de que possam exercer uma influência decisiva no plano jurídico e institucional com a urgência que seria necessária.

Existe realmente uma inteligência artificial?

Até agora, todas as conquistas no campo da inteligência artificial foram no desenvolvimento do que é conhecido como “inteligência artificial particular”, específica ou restrita. Ou seja, na criação de sistemas computacionais que apresentem uma grande capacidade, ainda maior que a humana, para realizar tarefas bem específicas e bem definidas. Por exemplo, jogar um jogo com regras fixas (xadrez, go, damas, videogame), respondendo a questões de cultura geral, fazendo diagnósticos médicos precisos (doenças infecciosas, câncer, medicina personalizada), reconhecendo rostos e outras imagens, processando e interpretando o voz humana, traduzir de um idioma para outro.

Na verdade, uma parte substancial do que hoje chamamos de inteligência artificial são sistemas de mineração de dados , assim chamados porque são capazes de analisar grandes quantidades de dados e obter deles padrões desconhecidos e o que poderíamos considerar como novos conhecimentos sobre esses dados.

Por mais impressionantes que sejam essas conquistas, essas tecnologias ficam aquém da versatilidade e flexibilidade da inteligência humana. Os sistemas mais inteligentes que temos hoje não podem ser usados ​​com eficácia para outras tarefas além daquelas para as quais foram programados. Há quem pense que não devemos sequer chamá-los de inteligentes, pois a única inteligência que neles aparece é a do programador humano ou a dos seres humanos em cujo contexto social esses sistemas desempenham alguma função.

Costuma-se dizer que uma máquina é inteligente quando é capaz de realizar tarefas que presumimos que exijam inteligência para serem realizadas. Esta é uma definição operacional, pois considera que a inteligência artificial é caracterizada como inteligente pelos seus resultados. No entanto, a própria caracterização da inteligência é um problema antigo cuja discussão continua. Não é fácil resolver a questão, então não é surpreendente que também não haja acordo sobre como definir a inteligência artificial em si .

Aceitemos, entretanto, que em um sentido não meramente metafórico, podemos falar de inteligência artificial. Devemos então temer a criação de uma Inteligência Artificial Geral (AGI)? Teremos máquinas superinteligentes que assumirão o controle de todo o planeta ou seremos capazes de controlá-las nós mesmos? Essas são perguntas que muitas vezes se repetem quando o futuro da IA ​​é mencionado na mídia e em livros populares, e acho que elas merecem ser levadas a sério .

Inteligência artificial já é um desafio

Não se deve esquecer que, independentemente de o futuro desenvolvimento de uma inteligência superior à humana representar um perigo para a sobrevivência de nossa espécie, o que no momento constitui um desafio do ponto de vista da salvaguarda dos direitos das pessoas. são certas aplicações de IA cujos efeitos já estão sendo vistos, como é o caso do uso de nossos dados pessoais por sistemas de IA pertencentes a grandes empresas de tecnologia, cujo poder por sua vez está crescendo rapidamente, ou vieses e opacidade dos algoritmos usados ​​na fabricação decisões importantes para a vida das pessoas, como a contratação de pessoal em empresas ou a concessão de empréstimos bancários.

Menção especial deve ser feita aos perigos do uso de IA na identificação de rostos e na busca de criminosos e prevenção de crimes, na vigilância e repressão de dissidentes políticos, na criação de armas autônomas, ou na proliferação de ataques cibernéticos. , de notícias falsas e desestabilização política por meio da desinformação.

Digamos também, para não deixar uma imagem totalmente negativa, que a IA está sendo um instrumento muito eficaz no julgamento de crimes financeiros, na proteção da segurança das pessoas, na promoção do progresso biomédico, no alcance de maior eficiência energética e proteção ambiental.

Acredito que, analisar as possíveis consequências da inteligência artificial, favoráveis ​​e desfavoráveis, discutir se é uma inteligência genuína, semelhante à humana, com possibilidade de ser consciente ou não, é desviar o foco do problema real.

O que me parece que devemos nos preocupar agora não é se seremos capazes de criar inteligência semelhante à humana ou superior, mas o que as máquinas que criamos serão capazes de fazer conosco no futuro, se tiverem a capacidade de tomar decisões que são consideradas na prática como irrecorríveis em sua autoridade. Não é como essas máquinas pensam que importa, é como agem, pois serão agentes com certa autonomia e, sobretudo, como os inseriremos em nossa ordem social.

O que é relevante em tudo isso será que o ser humano aceite sem supervisão as decisões que essas máquinas tomam, bem como as consequências que essas decisões podem ter em nossas vidas, principalmente se o próprio ser humano abrir mão do controle.

Em suma, é necessário promover instituições e procedimentos que facilitem a defesa dos direitos dos cidadãos contra os riscos potenciais da inteligência artificial, como, por exemplo, a defesa do direito à privacidade, bem como começar a pensar nos requisitos isso seria fundamental para um controle efetivo da IA, pois comparado ao que alguns nos dizem, não há razão incontestável a priori para aceitar que o problema do controle da IA ​​seja insolúvel .

Antonio Diéguez Lucena é professor de Lógica e Filosofia da Ciência, Universidade de Málaga

Traduzido por Cezar Xavier