Inteligência Artificial: o que esperar dos Estados
Apropriação do trabalho intelectual coletivo. Precarização. Desenvolvimento de robôs assassinos. Se ficar sob controle de corporações, nova tecnologia será fonte de pesadelos. Por isso as sociedades, mais que regulá-la, precisam dirigi-la
Publicado 22/03/2024 às 19:10 - Atualizado 22/03/2024 às 19:15
Por Mariana Mazzucato | Tradução: Antonio Martins
Em dezembro passado, a União Europeia (UE) estabeleceu um precedente global ao finalizar a Lei de Inteligência Artificial, um dos conjuntos de regras de IA mais abrangentes do mundo. A legislação emblemática da Europa pode sinalizar uma tendência mais ampla em direção a políticas de IA mais responsivas. Mas embora a regulamentação seja necessária, não é suficiente. Além de impor restrições às empresas privadas de IA, os Estados devem assumir um papel ativo no desenvolvimento da tecnologia, projetando sistemas e moldando mercados para o Comum.
É claro que os modelos de IA estão evoluindo rapidamente. Quando os reguladores da UE divulgaram o primeiro rascunho da lei sobre o tema em abril de 2021, eles gabaram-se de ele ser supostamente “à prova de futuro”. Apenas um ano e meio depois, correram para atualizar o texto, em resposta ao lançamento do ChatGPT. Mas os esforços regulatórios não são em vão. Por exemplo, a proibição, por lei, do uso de IA no policiamento por biometria continuará provavelmente relevante, em que pesem os avanços na tecnologia. Além disso, os parâmetros de risco incluídos na lei de IA ajudarão os formuladores de políticas a se proteger contra alguns dos usos mais perigosos da tecnologia. Embora a IA tenda a se desenvolver mais rápido do que a política, os princípios fundamentais da lei não precisarão mudar – embora ferramentas regulatórias mais flexíveis sejam necessárias para ajustar e atualizar as regras.
Mas pensar no Estado apenas como regulador é perder de vista o aspecto principal. A inovação não é apenas um fenômeno de mercados sagazes. Ela tem uma direção; e esta depende das condições em que emerge. Os formuladores de políticas públicas podem influenciar essas condições. O surgimento de um design tecnológico ou modelo de negócios dominante é o resultado de uma luta de poder entre vários atores – corporações, órgãos governamentais, instituições acadêmicas — com interesses conflitantes e prioridades divergentes. Ao refletir essa luta, a tecnologia resultante pode ser mais ou menos centralizada, mais ou menos proprietária, e assim por diante.
Os mercados que se formam em torno de novas tecnologias seguem o mesmo padrão, com implicações distributivas importantes. Como o pioneiro do software Mitch Kapor coloca, “Arquitetura é política”. Mais do que regulamentação, o design de uma tecnologia e da infraestrutura que a circunda dita quem pode fazer o quê com ela e quem se beneficia. Para assegurarem que inovações transformadoras produzam crescimento inclusivo e sustentável, não basta que os Estados corrijam os mercados. Eles precisam moldá-los e cocriá-los. Quando os Estados contribuem para a inovação por meio de investimentos ousados, estratégicos e orientados para missões, eles podem criar novos mercados e atrair o setor privado.
No caso da IA, a tarefa de direcionar a inovação está atualmente dominada por grandes corporações privadas. Isso leva a uma infraestrutura que serve aos interesses dos já envolvidos e agrava a desigualdade econômica. É o reflexo de um problema de longa data. Algumas das empresas de tecnologia que mais se beneficiaram de apoio público – como Apple e Google – também foram acusadas de usar suas operações internacionais para evitar o pagamento de impostos. Essas relações desequilibradas e parasitárias entre grandes empresas e o Estado agora correm o risco de ser ampliadas pela IA, que promete recompensar o capital enquanto reduz as rendas conferidas ao trabalho.
As empresas que desenvolvem IA generativa já estão no centro dos debates sobre comportamentos extrativistas, devido ao seu uso desenfreado de textos, áudios e imagens protegidos por direitos autorais, para treinar seus modelos. Ao centralizarem o valor dentro de seus próprios serviços, elas reduzirão os fluxos de recursos para os artistas de quem dependem. Assim como nas redes sociais, os mecanismos estão alinhados para a extração de renta, cuja lógica é permitir que intermediários dominantes acumulam lucros às custas de outros. As plataformas que prevalecam hoje – como Amazon e Google – exploraram sua posição dominante usando seus algoritmos para extrair tarifas cada vez maiores (“rentas de atenção algorítmica”) para acesso aos usuários. Uma vez que Google e Amazon se tornaram um gigantesco esquema de jabaculês, a qualidade da informação deteriorou e as plataformas passaram a extrair valor do ecossistema de sites, produtores e desenvolvedores de aplicativos nos quais as se baseiam. Os sistemas de IA de hoje poderiam seguir um caminho semelhante: extração de valor, monetização disfarçada e deterioração da qualidade da informação.
Governar modelos de IA generativa para o Comum exigirá parcerias mutuamente benéficas, orientadas para objetivos compartilhados e a criação de valor público, e não apenas privado. Isso não será possível com Estados que agem apenas após os fatos consumados. Precisamos de Estados empreendedores, capazes de estabelecer estruturas pré-distributivas que compartilhem riscos e recompensas ex ante. Os formuladores de políticas devem se concentrar em entender como as plataformas, os algoritmos e a IA generativa criam e extraem valor, para que possam estabelecer as condições – entre elas, regras de design equitativas – para uma economia digital que remunere a criação de valor.
Lembre-se da História
A internet é um bom exemplo de uma tecnologia que foi projetada a partir de princípios de abertura e neutralidade. Considere o princípio do “ponto a ponto”, que garante que ela opere como uma rede neutra,k responsável pela entrega de dados. O conteúdo entregue de computador para computador pode ser privado, mas o código é gerenciado publicamente. E a infraestrutura física necessária para acessar a internet é privada, mas o desenho original assegurou que, colocados online, os recursos para a inovação na rede são livremente disponíveis.
Essa escolha de design, coordenada [nos EUA] pelo trabalho inicial da Agência de Projetos de Pesquisa Avançada de Defesa (entre outras organizações), tornou-se um princípio orientador para o desenvolvimento da internet, permitindo flexibilidade e inovação extraordinárias nos setores público e privado. Ao visualizar e moldar novos espaços de criação, o Estado pêde estabelecer mercados e direcionar o crescimento, em vez de apenas incentivá-lo ou estabilizá-lo.
É difícil imaginar que empresas privadas, encarregadas de desenvolver a internet na ausência de envolvimento governamental, tivessem aderido a princípios igualmente inclusivos. Considere a história da tecnologia telefônica. O papel do Estado foi predominantemente regulatório. A inovação foi deixada, em grande medida, nas mãos de monopólios privados. Este tipo de centralização não apenas prejudicou o ritmo da inovação, mas também limitou os benefícios sociais mais amplos que poderiam ter surgido.
Por exemplo, em 1955, a American Telephone and Telegraph (AT&T) persuadiu a Comissão Federal de Comunicações a banir um dispositivo que reduziria o ruído nos receptores telefônicos, alegando direitos exclusivos para melhorias na rede. O mesmo tipo de controle monopolista poderia ter relegado a internet a ser apenas um instrumento de nicho para um grupo seleto de pesquisadores, em vez da tecnologia universalmente acessível e transformadora em que se converteu.
Da mesma forma, a transformação do GPS – de uma ferramenta militar para uma tecnologia universalmente benéfica – destaca a necessidade de governar a inovação para o bem comum. Inicialmente projetado pelo Pentágono para coordenar ações militares, o acesso público aos sinais de GPS foi deliberadamente rebaixado, por motivos de segurança nacional. Mas, à medida que o uso civil ultrapassou o militar, o governo dos EUA, sob o presidente Bill Clinton, tornou o GPS mais responsivo aos usuários civis e comerciais em todo o mundo.
Essa mudança não apenas democratizou o acesso à tecnologia de geolocalização precisa, mas também estimulou uma onda de inovação em muitos setores, incluindo navegação, logística e serviços baseados em localização. Uma mudança de política que buscava maximizar o benefício público teve um impacto transformador e de longo alcance na inovação tecnológica. Mas esse exemplo também mostra que governar para o bem comum é uma escolha consciente que requer investimento contínuo, alta coordenação e capacidade de entrega.
Para aplicar essa escolha à inovação em IA, precisaremos de estruturas de governança inclusivas e orientadas para missões, com meios para investir conjuntamente com parceiros que reconheçam o potencial da inovação liderada pelo Estado. Para coordenar respostas de múltipos atores a objetivos ambiciosos, os formuladores de políticas devem estabelecer condições para financiamento público, de modo que os riscos e recompensas sejam compartilhados de forma mais equitativa. Isso significa objetivos claros, aos quais as empresas precisam se adequar; altos padrões de trabalho, sociais e ambientais; e compartilhamento de lucros com o público. As condicionalidades podem e devem exigir que as Big Tech sejam mais abertas e transparentes. Não devemos aceitar nada menos do que isso, se quisermos levar a sério a ideia de capitalismo de stakeholders.
Por fim, enfrentar os perigos da IA exige que os governos ampliem seu papel além da regulação. Sim, diferentes governos têm capacidades diferentes, e alguns são altamente dependentes da economia política global mais ampla da IA. A melhor estratégia para os Estados Unidos pode não ser a melhor para o Reino Unido, a UE ou qualquer outro país. Mas todos devem evitar a falácia de presumir que governar a IA para o Comum está em conflito com a criação de um setor de IA robusto e competitivo. Pelo contrário, a inovação floresce quando o acesso às oportunidades está aberto e as recompensas são amplamente compartilhadas.
Nenhum comentário:
Postar um comentário