Após sua nomeação como presidente da Comissão Europeia em novembro de 2019, Ursula von der Leyen estabeleceu uma série de iniciativas a serem realizadas. Em particular, von der Leyen encarregou Margrethe Vestager, vice-presidente executiva da UE para uma Europa adequada à era digital, de apresentar uma proposta inicial para a política de inteligência artificial — dentro de 100 dias.
Ontem, o primeiro desses documentos foi publicado no site da Comissão. Isso segue várias reuniões em Bruxelas entre a Comissão Europeia e representantes seniores dos gigantes da internet Apple, Facebook e Google; parece mais do que provável que o assunto da IA tenha surgido durante o curso dessas reuniões. Estão essas empresas nervosas com a possibilidade de uma nova legislação que possa impactar seu uso de IA? Muito possivelmente.
A UE tem um histórico de liderar com legislação para enfrentar riscos emergentes, como o Regulamento Geral sobre a Proteção de Dados (GDPR), em vigor desde 25 de maio de 2018; o regulamento foi seguido pelo recente California Consumer Privacy Act (CCPA), em vigor desde 1º de janeiro de 2020.
A indústria de software de privacidade foi turbinada por esses atos legislativos; Merry Marwig, nossa analista líder para privacidade, está acompanhando de perto os desenvolvimentos; e recentemente lançamos uma nova série de categorias de tecnologia de privacidade de dados para refletir mais precisamente o cenário tecnológico.
Parece altamente provável que estruturas e diretrizes surjam de Bruxelas, e o Livro Branco sobre Inteligência Artificial da Comissão Europeia discute essa necessidade potencial, estabelecendo critérios para entender o nível de risco que um caso de uso de IA pode apresentar. O documento destaca possíveis requisitos para essas “aplicações de alto risco”, que incluem:
- Dados de treinamento
- Dados e manutenção de registros
- Informações a serem fornecidas
- Robustez e precisão
- Supervisão humana
- Requisitos específicos para certas aplicações particulares de IA, como aquelas usadas para fins de identificação biométrica remota
O documento entra em mais detalhes sobre cada tópico, estabelecendo a possibilidade de “avaliações de conformidade” como parte da seção de Conformidade e Aplicação (página 23). A frase que pode preocupar operadores de IA não baseados na Europa pode ser esta:
“As avaliações de conformidade seriam obrigatórias para todos os operadores econômicos abordados pelos requisitos, independentemente de seu local de estabelecimento.”
O Vale do Silício, da mesma forma que está sujeito ao GDPR, poderia potencialmente ter suas atividades de IA sujeitas à supervisão de conformidade da UE.
Além das regulamentações: uso de IA no futuro
Outro aspecto do lançamento da Comissão chamou minha atenção: A questão do que eu geralmente chamo de problema do "primeiro a mover" em dados. Em outras palavras, os gigantes da internet têm uma vantagem inicial quase intransponível quando se trata de dados que eles reuniram e que podem ser usados para treinar e operar IA.
Interessantemente, a Sra. Vestager foi anteriormente a comissária para a concorrência, e outro dos documentos publicados ontem—Comunicação: Uma estratégia europeia para dados—faz menção específica ao que chama de “desequilíbrios no poder de mercado”, na página 8. Essa vantagem, juntamente com a infraestrutura tecnológica estabelecida, é um fator chave ao considerar o poder de mercado exercível—tanto na entrega de bens e serviços quanto em casos de uso de IA. É talvez igualmente preocupante tanto para legisladores quanto para empresas de tecnologia.
Costuma-se dizer que os dados são o novo petróleo. (Como estudante de história econômica, não posso deixar de pensar na divisão da Standard Oil em 1911.) Estruturas legislativas para governar a IA é um tópico muito promissor, mas me pergunto se os controles sobre os dados usados pela IA definirão muito do papel final que ela desempenha. Nem é preciso dizer que a G2 estará acompanhando de perto os desenvolvimentos nesse espaço.