Daniela Braga, líder e fundadora da Defined.AI, participou de força-tarefa para formular recomendações de regulação da inteligência artificial nos EUA. Ela defende pagamento por dados que treinam os sistemas
Uma “empresa de dados com valores”. É assim que a portuguesa Daniela Braga resume a Defined.AI, empresa que ela dirige e cujo principal ativo é uma commodity cada vez mais valiosa. Criada em 2015, trata-se de uma espécie de marketplace de dados, que tem como clientes empresas de tecnologia que querem aperfeiçoar seus sistemas de inteligência artificial (IA).
Crítica dos grandes modelos de IA populares que foram treinados com dados disponíveis na internet, a executiva considera que essas informações foram “roubadas” e explicam as respostas enviesadas de robôs virtuais e até a falta de precisão nas informações. Em entrevista ao GLOBO, ela explica que seu negócio oferece um treinamento “ético” de modelos de IA, o que inclui respeitar direitos autorais e usar dados coletados com consentimento.
Foi com essa abordagem que Daniela chegou aos debates sobre a regulação da IA da primeira força-tarefa criada pelo presidente dos EUA, Joe Biden, sobre o tema. Há seis meses, o grupo entregou suas recomendações à Casa Branca. Para a empresária, os esforços regulatórios da Europa e de países como Brasil vão tornar inevitável que EUA e China também avancem no tema.
A senhora participou da força-tarefa criada por Biden sobre IA, encerrada há seis meses. O que foi entregue?
Trabalhamos durante 18 meses. O objetivo era definir a democratização do acesso a ferramentas, dados e modelos ao mercado americano, que está muito dividido. De um lado, estão as gigantes tecnológicas com investimentos de bilhões. Do outro, a academia e as empresas tecnológicas menores com uma enorme diferença de recursos financeiros para implementar o que quer que seja. Havia representantes da academia, de agências americanas e de grandes e pequenas empresas.
Fizemos recomendações de regulação especialmente direcionadas a acesso a recursos e quais regras deveriam ter. E diretrizes em questões como privacidade de dados, confiabilidade e segurança dos modelos de IA.
A Defined.AI é um ‘markeplace’ de compra e venda de dados, ferramentas e modelos de IA. O que isso quer dizer?
Somos uma empresa de dados com valores. Batalhamos há anos para que os dados (que treinam as IAs) sejam pagos, consentidos e privados, e para que não infrinjam direitos autorais. Todos os dados que temos têm consentimento explícito para serem usados no treino de IA. Temos voz, texto, vídeo e multimodais. Também trazemos um complemento de diversidade, com 1,5 milhão de membros on-line (que treinam os modelos como freelancers).
Como a fome de dados aumentou, criamos um conceito de marketplace em que vem o que tem no mercado e pode ser redirecionado para a IA. O mundo está cheio desse tipo de dado. Precisa que seja legalmente revisado e seu uso, acordado. Não foi assim que os modelos mais recentes de IA foram construídos.
Alguns dos populares modelos de IA foram treinados com dados disponíveis na internet. Qual o problema disso?
São muitos os problemas. Primeiro, são dados altamente enviesados, produzidos essencialmente por demografias masculinas e brancas, que não representam a população no geral. Há também muita desinformação, porque nem tudo foi escrito por pessoas com credibilidade.
No caso daquilo que tem credibilidade, os direitos autorais não foram pagos aos respectivos autores, sejam eles cientistas, escritores, fotógrafos ou qualquer tipo de criador de conteúdo. Há dados com muita qualidade, mas a maioria do que circula na internet não é crível. As informações ficam sem controle de qualidade. E a questão é que as empresas não farão isso a não ser que sejam obrigadas.
Haveria uma alternativa para criar esses esses grandes modelos de IA, de forma tão rápida, sem usar esses dados abertos da internet?
Teria, mas seria muito mais caro. Os dados usados não foram pagos. Foram roubados, como digo muitas vezes. A questão também é que teria dado muito mais trabalho pedir autorização para as pessoas. Teria sido possível? Teria. E as empresas maiores nem são o grande problema, porque já estão no radar. O grande problema são as que estão fora, crescendo em um faroeste sem regulação. Nós, como negócio, vivemos de dados há oito anos.
Nunca invadimos os de ninguém sem parceria comercial, normalmente com empresas que não estão no campo da IA, mas que estão sentadas em minas de informações. Os negócios de mídia são um bom exemplo. Mas até se aprovar uma legislação para isso, todos os dados já se foram — informações não licenciadas, não validadas e não consentidas. É quase como comprar uma vacina sem saber a fonte de produção deste medicamento. OpenAI, Midjourney e todas essas empresas fizeram a humanidade acordar para a realidade da indústria de IA.
Por que as empresas menores de IA são as mais perigosas?
Porque as grandes são alvo fácil, especialmente no contexto americano, para serem processadas. Por isso mesmo que, agora, antes de o governo começar a legalizá-las, elas já estão se autorregulando. O perigo são as outras, que continuam varrendo a internet. Vemos coisas escabrosas de dados sensíveis, dados médicos, dados privados sendo usados. Eles não têm explicação sobre como acessaram essas informações. E é assim que se estão construindo várias inteligências artificiais.
A Defined.AI opera com trabalhadores de microtarefas, que recebem pelo trabalho realizado on-line. Esse é um tipo de função que não está regulada em nenhum lugar do mundo. Como garantir condições justas para eles?
A nossa definição do valor (de remuneração) é uma fórmula que calcula, primeiro, o que seria o salário mínimo com base na localização do trabalhador. Há um acréscimo relacionado às habilidades necessárias para desempenhar aquela determinada função. E aí o tempo de execução da tarefa. Aplicamos em todos os países.
O problema maior, para mim, são empresas de primeiro mundo, com rendimento alto, que terceirizam serviços em países pobres e não se preocupam com os bastidores. Às vezes, não há responsabilidade social sobre o que acontece do outro lado.
O Brasil, que não é produtor de tecnologia, está discutindo a regulação da IA. Isso pode aumentar nossa dependência de modelos estrangeiros?
Na Europa, que também tem um discurso protecionista sobre dados e privacidade dos cidadãos, há sempre essa discussão. A regulação contribui para o desaceleramento da inovação? Obviamente há um balanço difícil entre protecionismo, legislação e inovação.
O Brasil por acaso está avançando mais rápido na legislação sem fazer desenvolvimento (de IA), mas é provavelmente porque o país sabe que, sendo uma das maiores economias do mundo, tem muito a perder se não proteger os dados produzidos no país. É muita informação que pode ser roubada por outros países que têm tecnologias mais avançadas. Acho que é uma boa ideia vocês protegerem seus dados, com certeza.
E como vê o avanço da regulação na Europa?
Da mesma maneira. O fato de haver estas grandes zonas geográficas e forças políticas avançando nesse tipo de iniciativa tem obrigado o próprio governo americano e a China a terem um pouquinho mais de cuidado em relação ao tema. Caso contrário, não vão conseguir vender seus produtos de IA na Europa, no Brasil e nos países que estão fazendo movimentos regulatórios.
Sistemas de IA conversacionais terão que espaço no futuro?
Estarão em tudo. Para interagir com a sua casa, com o seu carro, com suas chaves, com o seu banco. Trabalho há 23 anos com isso e estou muito feliz de continuar nesta área.
Fonte: O GLOBO
0 Comentários