Notícias

“AI depende de vigilância em massa”, alerta Signal Boss

Os sistemas de IA anseiam pela entrada de dados, mas também produzem grandes quantidades de dados.

Paris, França:

As ferramentas de IA que processam números, geram textos e vídeos e encontram padrões em dados dependem de vigilância em massa e exercícios relativos ao controle sobre nossas vidas, disse à AFP o chefe do aplicativo de mensagens criptografadas Signal na quinta-feira.

Resistindo ao entusiasmo inquestionável na VivaTech em Paris, a principal conferência de startups da Europa, onde os participantes da indústria alardeiam os méritos dos seus produtos, Meredith Whittaker disse que as preocupações com a vigilância e as com a IA eram “dois enquadramentos da mesma coisa”.

“As tecnologias de IA de que falamos hoje dependem da vigilância em massa”, disse ela.

“Eles exigem enormes quantidades de dados que são derivados deste modelo de negócios de vigilância em massa que cresceu a partir dos anos 90 nos EUA e se tornou o motor económico da indústria tecnológica”.

Whittaker, que passou anos trabalhando para o Google antes de ajudar a organizar uma greve de funcionários em 2018 por causa das condições de trabalho, fundou o AI Now Institute na Universidade de Nova York em 2017.

Ela agora faz campanha pela privacidade e critica os modelos de negócios baseados na extração de dados pessoais.

E ela tem certeza de que não tem confiança de que a indústria de IA esteja se desenvolvendo na direção certa.

Desequilíbrios de poder

Os sistemas de IA anseiam pela entrada de dados, mas também produzem grandes quantidades de dados.

Mesmo que seja incorrecto, disse ela, este resultado “tem o poder de classificar, ordenar e dirigir as nossas vidas de formas com as quais deveríamos estar igualmente preocupados”.

E apontou para os desequilíbrios de poder criados por uma indústria controlada por “um punhado de gigantes da vigilância” que são “em grande parte irresponsáveis”.

“A maioria de nós não é usuário de IA”, disse ela.

“A maioria de nós está sujeita ao seu uso pelos nossos empregadores, pelas autoridades, pelos governos, por quem quer que seja.

“Eles têm seus próprios objetivos, mas podem não ser objetivos que nos beneficiem ou beneficiem a sociedade”.

Ela disse que um exemplo notável foi a forma como as empresas de IA gostavam de dizer que estavam a ajudar a encontrar soluções para a crise climática.

Na verdade, disse ela, eles estavam a receber dinheiro de empresas de combustíveis fósseis e a sua tecnologia estava a ser usada para encontrar novos recursos para extrair.

“Porque, claro, onde está a receita? Não é para salvar o clima”, disse ela.

“Está em contratos massivos com a BP, com a Exxon, com outras grandes empresas de petróleo e gás.”

Em última análise, ela argumentou que os europeus não deveriam pensar em termos de competir com as maiores empresas americanas de IA.

Outra opção poderia ser “reimaginar a tecnologia que possa servir sociedades mais democráticas e mais preservadoras de direitos ou pluralistas”.

(Esta história não foi editada pela equipe da NDTV e é gerada automaticamente a partir de um feed distribuído.)

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button