Em maio deste ano, a OCDE (Organização para a Cooperação e Desenvolvimento Econômico) divulgou seu documento de princípios para Inteligência Artificial (IA), assinado por 42 países no total, incluindo o Brasil, no qual afirma, entre outros pontos, que a nova tecnologia deve beneficiar as pessoas e o planeta em direção a um crescimento inclusivo e sustentável e respeitar leis, direitos humanos e valores democráticos.
Seis meses depois, o debate sobre o tema no Fórum de Governança da Internet, em Berlim, mostrou o quão complexo é passar dos princípios para a prática, ou seja, como implementar o que pelo menos uma boa quantidade de países já assumiu como relevante neste campo.
Um primeiro desafio colocado está na origem do desenvolvimento dos modelos e programas de Inteligência Artificial. Reafirmando a ideia de que o código é reflexo das pessoas que o elaboraram e que princípios éticos variam ao redor do mundo, especialistas reunidos no IGF 2019 alertaram sobre a necessidade de olhar para esses processos desde o início.
"Quando vemos quem é parte das equipes de desenvolvimento na África, não vemos mulheres. E elas também não estão nas salas de aula das universidades que ensinam tecnologia. Então temos que trabalhar com a inclusão desde o início", disse Sarah Kiden, de Uganda, pesquisadora da Universidade Dundee, na Escócia.
"Muitos dados que alimentam os sistemas também podem carregar noções de realidade e preconceitos que existem nas sociedades. Se você usa o determinado tipo de dado sem olhar fatores como contexto histórico, por exemplo, a Inteligência Artificial acaba apenas perpetuando discriminações", acrescentou Mina Hanna, engenheiro da Iniciativa Global sobre Ética em Sistemas Autônomos e Inteligentes.
Ele lembrou do caso do programa Compass, usado nos Estados Unidos para estimar reincidências de condenados por crimes, que usava informações como endereço de residência das pessoas e foi acusado de discriminação contra negros. "Se quem criou o sistema não considera que já havia preconceito na política habitacional de Wisconsin, este tipo de variável se torna muito ruim", explicou.
Transparência e confiança
Do ponto de vista das empresas, o desafio está em ganhar confiança das pessoas e destacar os aspectos positivos da AI. Para isso, a transparência sobre as decisões tomadas por sistemas automatizados precisa ampliar. "Precisamos mostrar que o que está por trás disso são pessoas e ser transparentes é uma maneira de permitir confiança. Estamos abrindo nossos bancos de dados para pesquisas", afirmou Carolyn Nguyen, diretora de Políticas de Tecnologia da Microsoft.
Google e IBM são outros gigantes da Internet que também estão fazendo o mesmo e a medida tem sido bem recebida, como uma maneira de possibilitar que mais pessoas participem desse ecossistema. "Isso é central. Precisamos de um diálogo multissetorial para identificar prioridades para que essa tecnologia alcance seu potencial. Temos que aprender lições de outros setores", analisou Nguyen. A implementação de princípios éticos e de direitos humanos no desenvolvimento tecnológico de sistemas de IA também foi apontada como uma vantagem competitiva.
Representando o governo do Vaticano, Augusto Zampini-Davies deixou claro o quanto o diálogo multissetorial é necessário, mas está longe de não ser conflituoso. "Empresas que têm maior poder de análise precisam ter maior responsabilidade pelo que está sendo gerado neste campo do que outras. Aquelas que estão investindo muito e se beneficiando muito desses sistemas, inclusive transformando ambientes em relação a empregos antes ocupados por pessoas, devem ser mais responsabilizadas", concluiu Zampini.
Fonte: Teletime News de 27 de novembro de 2019, por Bia Barbosa, em colaboração.
Nenhum comentário:
Postar um comentário