A disputa entre China e EUA pela liderança da Inteligência Artificial – O maior espetáculo da terra

A disputa entre China e EUA pela liderança da Inteligência Artificial – O maior espetáculo da terra

Carlos Augusto de Lima, Oficial Superior da Marinha do Brasil

Leonardo Braga Martins, Oficial Superior da Marinha do Brasil

 

A Guerra Fria foi um confronto ideológico, político, econômico e militar entre países capitalistas – liderados pelos EUA – e socialistas – comandados pela ex-URSS entre 1947 e 1989. Nas palavras de Kissinger (2012, p. 102): “o conflito entre Moscou e Washington foi a essência estratégica da Guerra Fria”, o que veio a estabelecer uma ordem bipolar no mundo, em uma dinâmica de competição e antagonismo mortal (SCHLESINGER, 1967). Enquanto o Muro de Berlim,[1] as alianças militares (OTAN e Pacto de Varsóvia) e o modelo de organização econômica foram símbolos dessa rivalidade, a corrida pela liderança tecnológica nos setores espacial e nuclear servia como um fiel visível da balança, indicador simbólico e prático do sucesso na disputa de poder.

Diante da rivalidade corrente entre os EUA e China, é intuitivo conceber analogias e recuperar desdobramentos do paradigma estratégico daquela época, em especial da corrida espacial, na busca por um mínimo de esclarecimento e orientação. Esse artigo explora a pertinência dessa abordagem para compreensão da disputa sino-americana pela liderança no desenvolvimento da Inteligência Artificial (IA). Interessa saber, em particular, de que modo essa disputa afeta os riscos de grandes desastres relacionados à difusão de aplicações inseguras da IA.

Conforme discutiremos, a abordagem é oportuna, mas há distinções importantes. Ao que tudo leva a crer, a concepção de que existe uma corrida pela IA, similar à corrida armamentista/espacial do século XX, está ajudando a construir uma corrida “de fato”, a partir do estímulo à rivalidade entre chineses e norte-americanos, a despeito da profunda capilaridade entre os ecossistemas produtivos e técnico-científicos dos dois países – entrelaçamento que não existia entre EUA e a então URSS.

Insight Inteligência - artigos e ensaios fora da curva

A Corrida Espacial

A corrida espacial foi simbolicamente iniciada em 1º de outubro de 1957, quando os soviéticos lançaram ao espaço o Sputnik 1, primeiro satélite artificial a orbitar em torno da Terra. Horowitz (2018) posiciona a corrida espacial no contexto da Guerra Fria e a define da seguinte maneira:

A corrida espacial foi um desafio bilateral entre os EUA e a URSS desenhado para colocar uma pessoa na Lua, o que incluía tanto o desenvolvimento de foguetes quanto o de tecnologias para manter o homem vivo no espaço, pousar na Lua e retornar em segurança. […] de maneira geral, a corrida para a Lua foi administrada por dois Governos de acordo com objetivos nacionais […] (HOROWITZ, 2018, p. 51, tradução nossa).

Os melhores resultados em atividades científicas espaciais conferiam ao vencedor o status de líder na Guerra Fria. Isso porque a inovação tecnológica causa grande efeito sobre as relações internacionais e a balança de poder, de forma imprevisível, em especial nos casos de uma tecnologia nova ou aperfeiçoada (JACKSON; SØRENSEN, 2013). Homer Edwar Newell (1915-1983), coordenador do Projeto Vanguard,[2] do Laboratório de Pesquisa da Marinha dos EUA, e partícipe do programa de planejamento e desenvolvimento da NASA (1962-1968), esclareceu do que se tratava a corrida espacial e sua influência sobre a estabilidade da ordem internacional:

Liderança era a palavra-chave. Ser competitivo não era suficiente. Em uma época em que a tecnologia era vital para a defesa nacional, essencial para resolver problemas de alimentação, transporte, saúde e importante para a economia nacional, a liderança tecnológica era um recurso nacional inestimável, que não poderia ser abandonado sem luta. Era a liderança tecnológica que geraria uma balança comercial favorável para os Estados Unidos e proporcionaria força nas negociações internacionais (NEWELL, 2010, p. 87-88, tradução nossa).

A despeito da competição e rivalidade patente, esse período divide pesquisadores. Alguns acreditam que a época afastou as grandes potências de acordar políticas comuns, pois buscavam vantagens relativas em uma acirrada disputa, acreditando que a estabilidade internacional futura dependia do sucesso de sua própria concepção de ordem mundial (SCHLESINGER, 1967). Outros defendem que houve cooperação durante esse período, pois, por exemplo, os EUA e a ex-URSS desenharam acordos na busca da paz nuclear e, ao fazerem isso, demonstraram um reconhecimento de interesses compartilhados e de um mínimo de sociabilidade (HOFFMANN, 1977 apud JACKSON; SØRENSEN, 2013). Em meio às tensões da Guerra Fria e da corrida armamentista, a corrida espacial teria sido “um ponto de equilíbrio, um símbolo de coexistência pacífica e de progresso humano” (SHREVE, 2003).

Um elemento importante para essa cooperação teriam sido as decisões dos líderes da época. É interessante observar que, num primeiro momento, era presidente dos EUA o General Dwight Eisenhower (1890-1969). Mesmo sendo um presidente originário da carreira militar, tendo ocupado posições de destaque no comando das forças aliadas durante a II Guerra Mundial, ele colocou a ciência espacial sob uma liderança civil, com a criação da NASA (National Aeronautics and Space Administration), em 1958.[3]

O caminho de uso pacífico de novas tecnologias não se fez somente a partir de decisões de lideranças políticas e criação de novas instituições. A negociação por consenso foi outro meio de definir acordos e normas internacionais para o desenvolvimento seguro da área espacial. No caso específico da exploração espacial, a ONU estabeleceu um Comitê de Uso Pacífico do Espaço Sideral (Committee on the Peaceful Uses of Outer Space).

Eilene Galloway (1906-2009), a “grande dama do espaço”,[4] apresenta o consenso como um mecanismo de tomada de decisões que serviu à criação da lei espacial internacional, logrando um acordo geral sem o voto, mas não necessariamente por unanimidade (GALLOWAY, 1979, p. 4), mesmo em meio ao contexto de novidade da época:

O espaço sideral foi adicionado a terra, mar e ar como um quarto ambiente do mundo. A ciência espacial e a tecnologia que trouxeram esse desenvolvimento são inerentemente forças dinâmicas internacionais aplicáveis a uma grande variedade de atividades. Sistemas globais de comunicações espaciais e meteorologia, progressos na navegação e mapeamento, monitoramento da poluição do ar, terra e mar para melhorar a qualidade do ambiente total da Terra, esses são apenas alguns dos usos pacíficos que podem beneficiar toda a humanidade. Ao mesmo tempo, havia a percepção desde cedo de que o espaço sideral pudesse se tornar uma arena para a guerra e o medo dessa possibilidade produziu uma motivação forte e universal para prevenir que o espaço sideral seja usado para conflito armado (GALLOWAY, 1979, p. 7-8, tradução nossa).

O surgimento de uma nova linguagem e termos técnicos que emergiam e eram popularizados com o auxílio das notícias divulgadas pela mídia (satélite artificial, nave espacial e veículo lançador de satélite) (NEWELL, 2010) não impediu o desenho de um marco regulatório ou o progresso da ciência e tecnologia espaciais e de suas aplicações para usos benéficos, particularmente comunicações e meteorologia (GALLOWAY, 1979, p. 10). Em vez de as duas potências espaciais, EUA e ex-URSS, buscarem o monopólio destrutivo das atividades espaciais, um pacto de interesse comum foi alcançado por consenso e cooperação internacional, quando quatro tratados espaciais entraram em vigor entre 1967 e 1976, ou seja, em menos de 10 anos.

É relevante destacar a simultaneidade dos acontecimentos nas áreas nuclear e espacial, mesmo em um cenário polarizado, para revelar o esforço político e institucional em questão. Durante a entrada em vigor dos principais tratados da área espacial, também foi assinado, por exemplo, o tratado de não proliferação de armas nucleares (1968), que entraria em vigor 1970.

A despeito dos entrelaçamentos com a corrida espacial, considerando as possibilidades de uso civil e militar das novas tecnologias, a questão nuclear percorreu um caminho próprio, orientada pelas mudanças decorrentes do fim da (curta) hegemonia nuclear norte-americana (1949), da Crise dos Mísseis de Cuba (1961) e do desenvolvimento dos submarinos lançadores de mísseis balísticos. Outrossim, nem sempre os limites entre as duas “raias” de disputa estão claras, sendo necessário excursionar pela contenda atômica para recolher elementos complementares para essa análise.

A Ascensão da China

Desde a Revolução Chinesa de 1949, cujo líder foi Mao Zedong (1893-1976), que instaurou a República Popular da China (RPC), passando por Deng Xiaoping (1904-1997) no final da década de 1970, a China tem sido uma força emergente, com a implementação de um modelo particular de socialismo de mercado, caracterizado pela interação entre propósitos de mercado capitalistas e a preservação da ordem política administrada pelo PCC (Partido Comunista da China) de maneira centralizada. E mais que isso, os líderes chineses percebem o seu país não simplesmente como um emergente, mas como uma potência regional recuperando a preeminência perdida, considerada natural e apropriada (KISSINGER, 2012; FRIEDBERG, 2018).

Desde então, a China explodiu a sua primeira bomba atômica em 1964,[5] colocou o primeiro chinês no espaço em 2003 e se converteu em uma potência econômica, bem de acordo com a proposta ocidental de poder – força militar, desenvolvimento econômico, inovação e progresso científico – colocando o país no posto de segundo maior gasto militar do planeta, segunda maior economia mundial e crescente influência internacional entre países de diversos modelos políticos e econômicos.

Nesse contexto de ascensão chinesa, em que o país se tornou apto a contestar o protagonismo norte-americano, acadêmicos e jornalistas passaram a evocar analogias à Guerra Fria ao analisarem as disputas no desenvolvimento de aplicações da inteligência artificial (IA). Tornou-se comum recorrer à citação do presidente da Rússia, Vladimir Putin (1952-), de setembro de 2017, como um atestado da importância estratégica do novo campo: “A IA é o futuro, não apenas para a Rússia, mas para toda a humanidade. […] Quem se tornar líder nessa área, se tornará o dono do mundo”.[6]

Por ser considerada facilitadora do progresso econômico, a liderança em IA provavelmente será mesmo crítica para o macroequilíbrio de poder e a concorrência internacional entre os países (SCHARRE; HOROWITZ, 2018). Se a China conquistar uma vantagem decisiva, poderá usar os avanços em IA para minar o poder econômico ou militar dos EUA, afirmam Scharre e Horowitz (2018), em meio a um crescente debate sobre a capacidade de os EUA liderarem mais essa disputa tecnológica.

Por sua vez, o Eurasia Group considera a relação entre EUA e China como a mais importante relação bilateral para a arquitetura do sistema internacional e o segundo fator de risco no mundo. O grupo cita os desentendimentos comerciais e a disputa por liderança tecnológica como causas da instabilidade e da perda de confiança entre os dois países (EURASIA GROUP POLITICS FIRST, 2019). No que diz respeito à guerra tecnológica, são citados, por exemplo, dois campos de conflito: IA/automação e tecnologia 5G. Esta última dentro do contexto de guerra cibernética e da proteção das infraestruturas estratégicas de cada país. E é justamente a possibilidade de escalada de conflitos no ciberespaço a terceira posição dentre os 10 maiores riscos de 2019 no mundo, de acordo com o Eurasia Group.

Se na Guerra Fria o muro de Berlim simbolizava a rivalidade entre EUA e ex-URSS, na atualidade, a guerra comercial e tecnológica entre EUA e China é o espelho das suas divergências, de suas “visões incompatíveis de futuro da Ásia e do mundo” (FRIEDBERG, 2018, p. 9).

A Inteligência Artificial

No dia 31 de agosto de 1955, quatro cientistas propuseram o Dartmouth Summer Research Project on Artificial Intelligence: John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester. O evento foi conduzido no verão de 1956 no Dartmouth College, em Hanover, New Hampshire, EUA. Esse evento é considerado o nascimento da IA como campo de conhecimento e de pesquisa (BOSTROM, 2018). Todavia, seu principal arquiteto não tinha a pretensão de produzir o frenesi ou hype que marcaria a expressão “Inteligência Artificial”. John McCarthy (1927-2011), considerado o pai do campo, expressa desde a década de 80 sua insatisfação com a forma como o Dartmouth Summer Research Project fora historiado. Ao fazer a resenha de “The Question of Artificial Intelligence: Philosophical and Sociological Perspectives”, livro de 1987, McCarthy faz críticas severas aos autores e à perspectiva por eles construída de que o projeto tinha, em sua essência, o objetivo de formular uma abordagem alternativa para o estudo do comportamento e por conseguinte da mente humana:

A proposta para a conferência de Dartmouth, como me lembro de tê-la escrito, não contém nenhuma crítica à maneira de ninguém de estudar o comportamento humano porque não a considerei relevante. Conforme sugerido pelo termo “inteligência artificial”, não estávamos considerando o comportamento humano, exceto como uma pista para possíveis formas eficazes de realizar tarefas. (McCARTHY, 1988, p. 6, tradução nossa).

De modo coerente com a proposição da IA como ramo da ciência da computação e não como uma revolução das ciências cognitivas, (McCARTHY, 1988) a hipótese para a discussão intersubjetiva era: todo aspecto do aprendizado ou qualquer outra característica da inteligência pode, em princípio, ser tão precisamente descrito que uma máquina pode ser produzida para simulá-lo. Esse estudo acompanha a definição de IA proposta por Richard Bellman, em seu livro “An Introduction to Artificial Intelligence: can computers think?”, de 1978: a IA é um grupo de tecnologias disruptivas que automatizam atividades associadas ao pensamento humano, incluindo a tomada de decisões, a solução de problema e o aprendizado (HE, 2017).

A partir daquele simbólico evento singular, os sistemas baseados em IA se difundiram pela sociedade da tecnologia da informação e comunicação (TIC) e pelo ciberespaço, estando dispersa por diversos setores: industrial, comercial, saúde, entretenimento e segurança. O destaque é “a ferramenta de busca do Google, provavelmente, o maior sistema de IA já criado” (BOSTROM, 2018). Além disso, Harari (2016) e Bostrom (2018) citam o exemplo do reconhecimento facial, uma função que os programas de computadores executam com muito mais eficácia e rapidez do que os humanos e que tem se aperfeiçoado suficientemente a ponto de serem utilizados na automatização do controle de fronteiras na Europa e na Austrália.

Mais recentemente, é possível notar a proliferação de dispositivos conectados em rede e o avanço da “Internet das Coisas” (Internet of Things – IoT). Hoje, mais de cinco bilhões de consumidores interagem com dados todos os dias. Até 2025, serão 6 bilhões de pessoas ou 75% da população mundial. Muitas dessas interações ocorrem hoje e ocorrerão no futuro sob a mediação de bilhões de dispositivos IoT conectados ao redor do planeta (REINSEL; GANTZ; RYDNING, 2018). Por sua vez, ao final de 2018, 22 bilhões de dispositivos estavam conectados à internet, com a expectativa de adição de mais 17 bilhões até o final de 2025, alcançando um total de 50 bilhões até 2030 (MERCER, 2019).

A Pandemia de Covid-19 acelerou o processo de transformação digital das empresas diante da necessidade de respeitar as medidas sanitárias, reduzir custos para enfrentar a grave crise econômica e obter resultados rápidos, à medida em que a permanência prolongada em modelos mais antigos erodia de forma implacável a capacidade de sobrevivência de muitos negócios (GOASDUFF, 2020). À exceção das implementações fracassadas, não há motivo para imaginar que o trabalho à distância, os serviços de computação em nuvem, streaming, teleconferência e ensino à distância regridam para níveis pré-pandemia – o que torna as discussões sobre a segurança das TIC (tecnologia da informação e comunicação) ainda mais relevantes para a agenda de 2021.

Mas por que analisar China e EUA em uma aparente corrida pela liderança da IA? Porque oito empresas dos EUA e China detêm, sozinhas, dois terços do valor total do mercado digital no mundo: Microsoft, Apple, Amazon, Alphabet/Google, Facebook, Tencent/WeChat, Alibaba e Baidu. Em conjunto, elas controlam um mercado que, em 2017, foi estimado em US$ 7,1 trilhões; com relação ao gasto global em IoT (Internet das Coisas), EUA e China são responsáveis por 50% do consumo desses produtos e serviços (BBC, 2019).[7]

Apesar da maior percepção de disputa de poder entre China e EUA, ainda há uma reduzida visibilidade da tecnologia da IA como ameaça e de sua importante relação com as decisões dos dois países. Os supostos perigos[8] da IA encontram amplas evidências na produção intelectual mundial. Desde 2016, por exemplo, a instituição Global Challenges Foundation (GCF)[9] apresenta a IA como um risco emergente que, mesmo que pareça improvável hoje, se tornará significativamente mais provável nas próximas décadas, com maior potencial de impacto e probabilidade de ocorrência, juntamente com a mudança climática, pandemias e armas de destruição em massa (biológica, nuclear e química) (GCF, 2018).

Max Tegmark (1967-), um cosmólogo sueco, defende que, apesar de termos que dedicar atenção à biotecnologia, armas nucleares e mudança climática, é preciso também tornar as pesquisas sobre a segurança da IA um dos temas principais da sociedade atual (TEGMARK, 2017). O escritor israelense Yuval Noah Harari (1976-) alerta para o perigoso potencial da IA, uma vez que seja deixada por conta da mão cega e invisível do mercado: “é perigoso confiar nosso futuro às forças do mercado porque elas fazem o que é bom para o mercado e não o que é bom para o gênero humano ou para o mundo” (HARARI, 2016), inclusive podendo criar “formas inéditas de guerra”.

A Disputa

No dia 8 de julho de 2017, a China lançou um programa de incentivo à IA, de acordo com as diretrizes emanadas pelo Partido Comunista Chinês (PCC): Nova Geração de Planejamento de Desenvolvimento da Inteligência Artificial. O plano declara como objetivos, no primeiro parágrafo: explorar a oportunidade estratégica e ser pioneiro para construir uma vantagem competitiva (first-move advantage) no desenvolvimento da IA,[10] ou seja, “deixar de ser replicadora e assumir a liderança nessa tecnologia de ponta” (FRIEDBERG, 2018, p. 42).

A análise do plano chinês demonstra que, apesar dos interesses estratégicos internacionais, há uma percepção de que a IA poderá contribuir também para a governança social do país e para a segurança de sua sociedade a nível doméstico. Por ser uma tecnologia de amplo espectro, a IA permitiria ao país atingir diversos de seus objetivos, não somente os econômicos e militares.

A corrida armamentista da IA é um tema recorrente entre think tanks e empreendedores, mesmo na China. No seu Livro Branco publicado sobre a segurança da IA, em setembro de 2018, e direcionado ao governo chinês, a China Academy of Information and Communications Technology (CAICT), um think tank influente subordinado ao Ministério da Indústria e Tecnologia da Informação da China, defendeu o fortalecimento de padrões éticos para o desenvolvimento de sistemas algorítmicos de IA, bem como propôs evitar uma corrida armamentista de IA entre os países (ALLEN, 2019).

A IA pode ser mais um fator a perturbar o balanço de poder ou prejudicar arranjos de governança global anteriormente estáveis (MASS, 2019). Prova do potencial dessa tendência é a mais recente Estratégia de Segurança Nacional dos EUA, que insiste na liderança em pesquisa, tecnologia, invenção e inovação como pilares da prosperidade americana. Assim como Newell (2010) defendeu que a liderança tecnológica era vital para a defesa e a economia nacional e que não poderia ser abandonada sem luta, os EUA continuam alimentando essa mentalidade competitiva:

Para manter nossa vantagem competitiva, os EUA priorizarão tecnologias emergentes críticas para o crescimento econômico e segurança, como ciência de dados, criptografia, tecnologias autônomas e inteligência artificial. De carros autônomos a armas autônomas, o campo da inteligência artificial, em particular, está progredindo rapidamente. […] Vamos incentivar cientistas do governo, da academia e o setor privado para alcançar avanços em todo o espectro de descobertas, desde melhorias incrementais a inovações capazes de mudar o jogo (NSS, 2017, p. 20, tradução nossa).

À medida que países percebem na IA uma maneira de alcançar uma vantagem competitiva sobre seus concorrentes, por acreditar que há grandes vantagens em ser os primeiros (first-move advantage), passa a existir a possibilidade deles deixarem de lado as preocupações de segurança (SCHARRE; HOROWITZ, 2018) e os riscos de desastres associados a essa tecnologia, aumentando o potencial de acidentes com a IA, tanto no setor comercial quanto no ambiente militar.

Uma eventual corrida armamentista no campo da IA, entre China e EUA, a exemplo do que ocorreu durante a Guerra Fria, é possível e explicável. Kenneth Payne discorre sobre as contundentes similaridades entre a IA e o aspecto nuclear da corrida armamentista:

Primeiro, as armas nucleares e a IA são desenvolvimentos altamente científicos, exigindo conhecimentos multidisciplinares. Em segundo lugar, a “revolução” está concentrada em poucos Estados e a pesquisa envolve um certo grau de sigilo que, juntamente com os aspectos técnicos inerentes, restringe o debate público. Em terceiro lugar, existem preocupações éticas e legais válidas sobre proporcionalidade, discriminação e controle de armas no emprego das tecnologias. Em quarto lugar, ambas as tecnologias têm o potencial de transformar rapidamente a estratégia, as instituições encarregadas de aplicá-la e a sociedade de maneira mais ampla. Por fim, ambas têm consequências potencialmente apocalípticas e despertam um intenso debate filosófico (PAYNE, 2018, p. 15, tradução nossa).

Uma diferença importante entre o desenvolvimento da IA e a corrida espacial, no entanto, sugere que a concorrência na arena da IA pode ser ainda mais intensa (SCHARRE; HOROWITZ, 2018), por ser multipolar e multisetorial. A corrida armamentista e espacial foi, fundamentalmente, uma competição bipolar estatal. Estados Unidos e ex-URSS eram os países mais poderosos do mundo, e os únicos países capazes de serem líderes mundiais em tecnologia espacial. Na equação dos dias de hoje, empresas privadas são os principais atores da IA (Google e Facebook, nos EUA; Baidu e Alibaba, na China). Assim Payne descreve as diferenças da atualidade:

Com a IA, ao contrário das armas nucleares, não há uma tentativa secreta, coordenada e em larga escala para atingir um objetivo particular, mas sim um programa de pesquisa mais díspar e eclético. Estados estão cada vez mais interessados na dimensão de segurança da IA, mas grande parte da pesquisa é conduzida por entidades, ou do setor privado ou em parceria com universidades, e em campos menos claramente relacionados ao uso militar. Os pesquisadores são, frequentemente, interessados em promover suas últimas conquistas ou sujeitá-las a publicação por revisão por pares, a fim de atrair financiamento, demonstrar o valor de mercado de suas descobertas ou promover sua marca (PAYNE, 2018, p. 16, tradução nossa).

Além disso, a disputa pela liderança da IA pode inaugurar uma nova arena de conflito caso a IA venha a contribuir para o sistema de armas disponíveis para a guerra. O sistema internacional baseado em regras não evoluiu para lidar com esse desafio e é provável que sofra para responder efetivamente. O problema seria não ter um mecanismo para avaliar o valor das novas tecnologias e os riscos que podem advir com o seu emprego e difusão nos equipamentos e sistemas, bem como a velocidade de incorporação de tecnologias disruptivas no Poder Militar.

Principalmente para a China, a percepção é de que sua influência internacional e sua posição econômica ainda carecem de liderança tecnológica, a qual poderia ser conquistada com a inteligência artificial (IA). O país, então, assume essa disputa não como uma simples competição, mas como uma contenda vital para efetuar a transição do núcleo de poder mundial do Ocidente para o Oriente e consolidar seu lugar entendido como natural de superpotência no centro do mundo.

O panorama chinês é claro: ser líder mundial (first-move advantage) no campo da IA até 2030 é um objetivo nacional. Evidências apontam que, na China, há poucas fronteiras entre as companhias comerciais, os laboratórios de pesquisa das universidades, os militares e o governo central; por isso, o PCC determina as prioridades do desenvolvimento da IA, estabelece os critérios de acesso a dados pessoais e acessa as tecnologias que, em princípio, teriam sido desenvolvidas para uso civil. Não é possível ignorar que a demanda interna chinesa igualmente move o interesse das lideranças políticas por soluções que facilitem a ação estatal dentro do país, um gigante com mais de 1,4 bilhão de habitantes. Há, portanto, uma notável convergência em torno da visão de futuro chinesa, enquanto a Estratégia de Segurança Nacional dos EUA, por sua vez, afirma o desejo norte-americano de liderar mais esse processo na história, estimulando cientistas do governo, academia e setor privado, mas com menor interferência estatal.

Essa combinação de fatores, somada a crescente hostilidade comercial e desconfiança mútua, agravadas pela falta de transparência chinesa no enfrentamento da pandemia de Covid-19, pode fazer com que a corrida concebida ganhe contornos de disputa concreta, à medida em que o discurso de securitização vai ferindo as conexões entre os ecossistemas de inovação chineses e norte-americanos, como tem sido possível observar sem grande esforço. O aprofundamento dessa tendência pode enfim promover um desenvolvimento sem salvaguardas ou consenso sobre os rumos seguros que a nova tecnologia deve seguir, ameaçando a segurança humana com novos riscos de desastres, e limitando a capacidade que a tecnologia possui de promover o bem-estar social.

No entanto, a IA não diz respeito somente aos Estados. A implementação de medidas práticas tem desafiado políticos, empreendedores e cientistas. Tal como discute Morlei (2019), a consciência das questões de risco está crescendo a um ritmo rápido, enquanto a habilidade da comunidade da IA de tomar ação para mitigar os riscos associados está ainda em idade infantil.

Dentro do sistema ONU, o Escritório das Nações Unidas para a Redução de Riscos de Desastres (UNRRD) reconheceu a exposição das infraestruturas estratégicas e dos sistemas industriais dos países aos riscos cibernéticos potencializados pela IA, seja por causas acidentais, falhas tecnológicas ou ataques intencionais; como consequência, podem ser afetados sistemas de geração e de distribuição de energia, bancos, comunicações e transporte, impactando diretamente o modo de vida das pessoas e a segurança humana (UNDRR, 2019).

Um Caminho?

No contexto corrente de incertezas associadas à mudança climática, à concentração de renda sem precedentes e à pandemia de Covid-19, uma aparente disputa bipolar entre dois Estados e uma competição estratégica por liderança em uma tecnologia incipiente e disruptiva parece mesmo repetir o roteiro do século XX na década de 70. Hoje, a trama envolve a República Popular da China (RPC), os Estados Unidos da América (EUA) e a inteligência artificial. Mas qual seria o fórum adequado para construir um caminho livre de riscos existenciais?

Pelos motivos discutidos até aqui, todo esforço para se obter consenso e desenhar salvaguardas, mesmo em uma época de rivalidades intensas, é tão necessário e oportuno quanto na Guerra Fria. A questão aqui é saber se iniciativas análogas serão capazes de construir consenso e cooperação em um ecossistema tão mais diverso e amplo de atores, reunidos para lidar com tecnologias cuja velocidade de desenvolvimento e difusão são bem maiores do que foram as tecnologias espaciais e nucleares.

Se a ciência espacial fez uso de foguetes, satélites e sondas espaciais,[11] a IA vai fazer uso de grandes quantidades de dados, algoritmos e computadores, o que estende os objetos de regulação (e, portanto, de disputa) a uma ampla cadeia de produção, distribuição e consumo de produtos e serviços tangíveis e intangíveis, como dispositivos de IoT, computação em nuvem, smartphones, redes 5G e computação quântica. Desenvolver um modelo de regulação global para tudo isso é um desafio colossal que talvez, paradoxalmente, seja impossível de enfrentar sem apoio de aplicações de IA.

Se a Guerra Fria viu iniciativas específicas de construção de salvaguardas para o uso do espaço e da energia nuclear, no século XXI a prevenção e mitigação de desastres em espectro tão amplo encontra-se presentemente sobre o guarda-chuva das iniciativas da chamada “redução de riscos de desastres” (RRD). Tendo percorrido um longo caminho desde a década de 90, esta abordagem encontra no Protocolo de Sendai para Redução de Riscos de Desastre o seu marco de referência contemporâneo, sob a coordenação do sistema ONU. Produto das discussões da Conferência de Sendai, o protocolo cobre o período de 2015 a 2030, buscando uma “redução substancial nos riscos de desastres e nas perdas de vidas humanas, meios de subsistência e saúde, bem como de ativos econômicos, físicos, sociais, culturais e ambientais de pessoas, empresas, comunidades e países” (UNDRR, 2015, p. 12). Esse marco se aplica:

[…] aos riscos de pequena e grande escalas, frequentes e infrequentes, súbitos e lentos, de causa natural ou humana, bem como aos riscos e perigos ambientais, tecnológicos e biológicos. Ele tem como objetivo orientar a gestão do risco de desastres para vários perigos […] (UNDRR, 2015, p. 11, tradução nossa).

A quinta edição do relatório Global Assessment Report on Disaster Risk Reduction (Relatório de Avaliação Global sobre Redução de Risco de Desastres),[12] emitido pela United Nations Office for Disaster Risk Reduction (UNDRR), e “primeiro documento de verificação da implementação do Protocolo de Sendai” (UNDRR, 2019, p. iii), sinaliza, mesmo que delicadamente, os desafios dessa tecnologia. De maneira inédita nos documentos da UNDRR, a inteligência artificial é citada. E seus riscos são assim descritos:

Quando se trata de segurança cibernética, a inteligência artificial é uma faca de dois gumes. Ela pode ser muito benéfica para aumentar a segurança dos dispositivos, sistemas e aplicativos, mas também pode empoderar aqueles que procuram atacar sistemas e redes e assim se tornar uma ferramenta avançada no arsenal de ataques cibernéticos. O Protocolo de Sendai leva em consideração a necessidade de lidar com os riscos decorrentes de inovações tecnológicas e suas aplicações. […] Além disso, a (falta de) robustez da inteligência artificial frente a uma ação maliciosa torna-se um problema, colocando o mais imediato perigo para a segurança dos sistemas ciberfísicos, em que a inteligência artificial será cada vez mais empregada (UNDRR, 2019, p. 60, tradução nossa).

Adicionalmente, o Relatório de Avaliação Global também defende que os riscos podem ser não lineares, pois a “surpresa é o novo normal”, e “a mudança não linear é uma realidade e está ameaçando todos os três pilares (social, ambiental e econômico) do desenvolvimento sustentável” (UNDRR, 2019, p. iv). Fóruns especializados, supostamente vocacionados para lidar com esses riscos, talvez apontem diretrizes em 2021, ocasião em que se espera a conclusão da presente rodada de trabalhos do UN Group of Governmental Experts (GEE) on Advancing Responsible State Behaviour in Cyberspace in The Context of International Security, atualmente sob a coordenação do Brasil (GIP Digital Watch, 2020).

De um jeito ou de outro se faz necessário discutir um marco regulatório e salvaguardas (medidas técnicas para garantir que um ator da própria instalação onde está em desenvolvimento a tecnologia, ou o Estado detentor da tecnologia, não faça mau uso do seu conhecimento sobre a tecnologia em questão) para o desenvolvimento da IA. Higinbotham (1983) avalia que os objetivos de salvaguardas são estabelecidos em resposta às ameaças percebidas e são, de alguma maneira, influenciados por quais medidas são possíveis de serem desenvolvidas e implementadas para conter aquelas ameaças. Se a “corrida pela IA” entre China e EUA, concreta ou concebida, for capaz de aguçar percepções, talvez um estranho caminho de polarização possa enfim estabelecer firmemente a prudência e a precaução como princípios da ação estatal. Assim poderemos evitar que a “explosão” de inteligência artificial no século XXI resulte numa enorme cratera de estupidez.

 

Carlos Augusto de Lima é aluno do Programa de Pós-Graduação em Defesa e Segurança Civil da Universidade Federal Fluminense (UFF) e Mestre en Ciencias Navales y Marítimas pela Academia de Guerra Naval do Chile.

caraugdeli@gmail.com

 

Leonardo Braga Martins é professor do Programa de Pós-Graduação em Defesa e Segurança Civil da Universidade Federal Fluminense (UFF) e Conselheiro da Associação Brasileira de Redução de Riscos de Desastre (ABRRD)

bragamartins@gmail.com

 

Referências Bibliográficas

ALLEN, Gregory C. Understanding China’s AI Strategy: Clues to Chinese Strategic Thinking on Artificial Intelligence and National Security. Center for a New American Security. February, 2019. Disponível em: < https://www.cnas.org/publications/reports/understanding-chinas-ai-strategy>. Acesso em: 23 jul. 2019.

BOSTROM, Nick. Superinteligência: Caminhos, Perigos e Estratégias para um Novo Mundo. Tradução: Aurélio Antônio Monteiro, Clemente Gentil Penna, Fabiana Geremias Monteiro e Patrícia Ramos Geremias. Rio de Janeiro: Darkside Books, 2018. Título Original: Superintelligence: Paths, Dangers and Strategies.

 EURASIA GROUP POLITICS FIRST. Top risks for 2019. Jan. 2019. Eurasia Live. Disponível em: <https://www.eurasiagroup.net/issues/top-risks-for-2019>. Acesso em: 25 jul. 2019.

FRIEDBERG, Aaron L. Competing with China. Survival. Vol. 60, n. 3, pp. 7-64. 2018. Disponível em: <https://doi.org/10.1080/00396338.2018.1470755. Acesso em: 20 set. 2019.

GALLOWAY, Eilene. Consensus Decision Making by the United Nations Committee on the Peaceful Uses of Outer Space. Journal of Space Law. Vol 7, n. 1. Mississippi: Lamar Society of International Law of the University of Mississippi School of Law, 1979.

GENEVA INTERNET PLATFORM. UN GGE and OEWG. GIP Digital Watch, 2020. Disponível em < https://dig.watch/processes/un-gge>. Acesso em 2 dez. 2020.

GLOBAL CHALLENGES FOUNDATION (GCF). Global Catastrophic Risks Annual Report. Stockholm, Sweden. 2016. Disponível em: <https://globalchallenges.org/en/our-work/annual-report>. Acesso em: 5 out. 2019.

______. Global Catastrophic Risks Annual Report. Stockholm, Sweden. 2017. Disponível em: <https://globalchallenges.org/en/our-work/annual-report>. Acesso em: 5 out. 2019.

GOASDUFF, Laurence. COVID-19 Accelerates Digital Strategy Initiatives. Gartner, 2020. Disponível em < https://www.gartner.com/smarterwithgartner/covid-19-accelerates-digital-strategy-initiatives/>. Acesso em 4 dez. 2020.

GOERTZEL, Ben. Superintelligence: Fears, Promises and Potentials – Reflections on Bostrom’s Superintelligence, Yudkowsky’s From AI to Zombies, and Weaver and Veitas’s Open-Ended Intelligence. Journal of Evolution and Technology. Vol. 25, n. 2, December, 2015, pp. 55-87. Disponível em: < https://jetpress.org/v25.2/goertzel.htm>. Acesso em: 14 out. 2019.

HARARI, Yuval Noah. HOMO DEUS: Uma Breve História do Amanhã. Tradução: Paulo Geiger. São Paulo: Companhia das Letras, 2016. Título Original: HOMO DEUS: A Brief History of Tomorrow.

HE, Yujia. How China Is Preparing for an AI-Powered Future. Wilson Briefs, June, 2017. Disponível em: <https://www.wilsoncenter.org/sites/default/files/how_china_is_preparing_for_ai_powered_future.pdf>. Acesso em: 18 set. 2019.

HIGINBOTHAM, W. A. Understanding National and International Safeguards: An Evolutionary Process. Upton, NY: Brookhaven National Laboratory, 1983. Disponível em: <https://digital.library.unt.edu/ark:/67531/metadc1074125/>. Acesso em: 11 ago. 2019.

HOFFMANN, Stanley. An American Social Science: International Relations. Daedalus. V. 106, n.3, p. 41-61. 1977.

HOROWITZ, Michael C. Artificial Intelligence, International Competition, and the Balance of Power. Texas National Security Review. Vol 1, issue 3, May, 2018. pp. 36-57. Disponível em: <https://repositories.lib.utexas.edu/handle/2152/65638>. Acesso em: 10 mai. 2019.

JACKSON, Robert; SØRENSEN, Georg. Introdução às Relações Internacionais: teorias e abordagens. Tradução: Bárbara Duarte. Revisão Técnica: Arthur Ituassu. 2 ed. rev. e ampl. Rio de Janeiro: Zahar, 2013.

KISSINGER, Henry. Sobre a China (recurso eletrônico). Tradução: Cássio de Arantes Leite. Rio de Janeiro: Objetiva, 2012. Título Original: On China. Formato: ePub.

MAAS, Matthijs M. How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons. Contemporary Security Policy. Vol 40, n. 3, pp. 285-311, 2019. Disponível em: <https://doi.org/10.1080/135223260.2019.1576464>. Acesso em: 19 set. 2019.

McCARTHY, John. [Review of] Bloomfield, Brian, ed. “The Question of Artificial Intelligence”, 1988. Disponível em: < http://jmc.stanford.edu/artificial-intelligence/reviews/bloomfield.pdf>. Acesso em 04 dez. 2020.

MERCER, David. Global Connected and IoT Device Forecast Update. Strategy Analytics. May, 2019. Disponível em: <https://www.strategyanalytics.com/access-services/devices/connected-home/consumer-electronics/reports/report-detail/global-connected-and-iot-device-forecast-update>. Acesso em: 26 out. 2019.

MORLEY, Jessica et al. From what to how. An overview of AI ethics tools, methods and research to translate principles into practices. arXiv preprint arXiv:1905.06876, 2019.

NATIONAL SECURITY STRATEGY (NSS). United States of America. The White House: Washington, DC, 2017.

NEWELL, Homer E. Beyond the atmosphere: early years of space science. New York: Dover Publications, 2010.

PAYNE, Kenneth. Artificial Intelligence: A Revolution in Strategic Affairs? Survival. Vol. 60, n. 5, pp. 7-32. 2018. Disponível em: <https://doi.org/10.1080/00396338.2018.1518374>. Acesso em: 21 set. 2019.

REINSEL, David; GANTZ, John; RYDNING, John. Data Age 2025: The Digitization of the World From Edge to Core. International Data Corporation. November, 2018. Disponível em: <https://www.seagate.com/files/www-content/our-story/trends/files/idc-seagate-dataage-whitepaper.pdf>. Acesso em: 25 out. 2019.

SCHARRE; Paul; HOROWITZ, Michael C. Strategic Competition in an Era of Artificial Intelligence. Center for a New American Security. July, 2018. Disponível em: <https://www.cnas.org/publications/reports/strategic-competition-in-an-era-of-artificial-intelligence>. Acesso em 13 set. 2019.

______. What Every Policy Maker Needs to Know. Center for a New American Security. June, 2018. Disponível em: <https://www.cnas.org/publications/reports/artificial-intelligence-what-every-policymaker-needs-to-know>. Acesso em 13 set. 2019.

SCHLESINGER, Arthur. Origins of the Cold War. Foreign Affairs, vol. 46, no 1, 1967, pp. 22-52. Disponível em: https://www.jstor.org/stable/20039280>. Acesso em: 12 mai.

SHREVE, Bradley G. The US, The USSR, and Space Exploration, 1957-1963. International Journal on World Peace, vol 20, nº 2, 2003, pp. 67-83. Disponível em: < https://www.jstor.org/stable/20753399>. Acesso em: 02 jun. 2020.

TEGMARK, Max. Life 3.0: Being Human in the Age of Artificial Intelligence. New York: Alfred A. Knopf, 2017. Formato: ebook.

UNITED NATIONS OFFICE FOR DISASTER RISK REDUCTION (UNDRR). Global Assessment Report on Disaster Risk Reduction. Geneva, Switzerland. 2019. Disponível em: <https://gar.unisdr.org/>. Acesso em: 11 out. 2019.

______. Sendai Framework for Disaster Risk Reduction 2015-2030. Geneva, Switzerland. 2015. Disponível em: < https://www.unisdr.org/we/inform/publications/43291>. Acesso em: 10 out. 2019.

 

NOTAS DE RODAPÉ

[1] O Muro de Berlim foi construído em 1961 pelo governo socialista da República Democrática Alemã (ou Alemanha Oriental), com o objetivo de impedir o fluxo de refugiados da parte socialista de Berlim para a parte capitalista da República Federal da Alemanha (ou Alemanha Ocidental). Sua queda ocorreu em 1989.

[2] O Projeto Vanguard foi o primeiro programa de satélite artificial dos EUA. A tarefa era desenhar, construir, lançar, colocar em órbita terrestre e acompanhar um satélite artificial executando um experimento científico. O satélite Vanguard I foi lançado e colocado em órbita, com sucesso, no dia 17 de março de 1958. Disponível em: < https://www.nrl.navy.mil/accomplishments/rockets/vanguard-project>. Acesso em: 13 set. 2019.

[3] O período da presidência de Eisenhower foi de janeiro de 1953 a dezembro de 1961. Seu vice-presidente foi Richard Nixon (1913-1994), outro que mais tarde continuaria a “pacificação” da atividade científica espacial ao exercer o cargo de presidente dos EUA no período de janeiro de 1969 a agosto de 1974.

[4] Disponível em: < https://www.nasa.gov/topics/history/features/galloway_obit.html>. Acesso em: 02 out. 2019.

[5] No dia 16 de outubro de 1964, a China detonou sua primeira bomba atômica, se tornando o quinto país a possuir o artefato nuclear, após EUA, ex-URSS, França e Reino Unido.

[6] Disponível em: <https://www.theverge.com/2017/9/4/16251226/russia-ai-putin-rule-the-world>. Acesso em: 18 mai. 2019.

[7] Disponível em: <https://www.bbc.com/portuguese/internacional-49981458>. Acesso em: 25 out. 2019.

[8] De acordo com o protocolo anterior ao de Sendai, o Marco de Hyogo (2005-2015), perigo é definido como um evento físico, fenômeno ou atividade humana potencialmente prejudicial que pode causar a perda de vidas humanas ou ferimentos, danos à propriedade, ruptura social e econômica ou degradação ambiental. Os perigos incluem condições latentes que podem representar ameaças futuras e podem ter diferentes origens: naturais (geológicas, hidrometeorológicas e biológicas) ou induzidas por processos humanos (degradação ambiental e perigos tecnológicos) (UNDRR, 2015).

[9] A Global Challenges Foundation, fundada em 2012 em Estocolmo, Suécia, iniciou a emissão de seus relatórios anuais no ano de 2016, tendo apresentado três relatórios até o momento. O relatório mais recente conta com a contribuição de relevantes instituições que tem estudado a questão das ameaças de riscos e desastres associados à inteligência artificial: Future of Life Institute; Machine Intelligence Research Institute; e Future of Humanity Institute, para citar três. O objetivo é encorajar debates e propostas para reduzir efetivamente riscos catastróficos, preferencialmente eliminá-los.

[10]Disponível em: <https://flia.org/wp-content/uploads/2017/07/A-New-Generation-of-Artificial-Intelligence-Development-Plan-1.pdf>. Acesso em: 23 set. 2019. O documento está traduzido para o idioma inglês.

[11]Sondas espaciais são naves não tripuladas lançadas ao espaço para coletar informações de planetas, satélites, asteroides e cometas. Elas transportam instrumentos para fazer medições e enviar imagens para a Terra. Disponível em: < http://www.invivo.fiocruz.br/cgi/cgilua.exe/sys/start.htm?infoid=1155&sid=9>. Acesso em: 13 set. 2019.

[12] O Global Assessment Report é uma publicação bienal do United Nations Office for Disaster Risk Reduction (UNDRR). Disponível em: < https://gar.unisdr.org/>. Acesso em: 11 out. 2019.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *