Projeto de lei bipartidário busca combater o uso indevido de AI Deepfake com marca d’água e procedência

E aí, pessoal! Prontos para embarcar na viagem maluca das notícias de cripto? No nosso canal do Telegram, vamos explorar o mundo das criptomoedas com leveza e bom humor. É como um papo de bar sobre Bitcoin, só que sem a ressaca no dia seguinte! 😄 Junte-se a nós agora e vamos desvendar esse universo juntos! 💸🚀

Junte-se ao Telegram


Como pesquisador com formação em tecnologia e ética, acredito que a Lei COPIED é um passo crucial na abordagem do problema crescente dos deepfakes gerados por IA. A capacidade de criar conteúdo falso convincente usando IA levanta preocupações éticas significativas, especialmente em relação ao consentimento e à deturpação.


Um projeto de lei proposto por uma equipe de legisladores do Senado de ambos os partidos políticos visa abordar a questão dos deepfakes gerados por IA, exigindo que tal conteúdo seja rotulado com marcas d’água distintas.

Uma proposta legislativa apresentada pelos senadores Maria Cantwell (D-WA), Marsha Blackburn (R-TN) e Martin Heinrich (D-NM) defende uma abordagem unificada para colocar marcas d’água em conteúdo produzido digitalmente usando inteligência artificial.

A Lei de Proteção e Integridade da Origem de Conteúdo de Mídia Editada e Deepfaked, ou COPIED, visa fortalecer os direitos dos criadores e introduzir regulamentações sobre os tipos de conteúdo usados ​​para treinar inteligência artificial (IA).

De acordo com a perspectiva de Cantwell, a legislação proposta visa trazer “claridade essencial” em relação ao conteúdo gerado por IA, permitindo que “criadores como jornalistas, artistas e músicos locais” recuperem o controlo sobre o seu trabalho.

Caso a legislação seja aprovada, os criadores de conteúdos de IA, como a OpenAI, seriam obrigados a incorporar nos seus serviços informações sobre a fonte do material gerado. Este requisito deve ser apresentado num formato que seja facilmente compreendido pelas máquinas, tornando-o resistente à manipulação ou eliminação através de técnicas avançadas de IA.

A aplicação da Lei COPIADA será feita pela Federal Trade Commission (FTC). A FTC classificará as infrações como equivalentes a práticas desleais ou enganosas, em linha com a sua competência existente ao abrigo da Lei da FTC.

Como analista de dados, percebi que, com o advento da inteligência artificial (IA), tem havido intensas discussões sobre as ramificações éticas desta tecnologia. Especificamente, a sua capacidade de recolher grandes quantidades de informação a partir da Web suscitou preocupações.

Como analista, percebi que a decisão da Microsoft de não garantir assentos no conselho da OpenAI levantou algumas preocupações. Esta mudança sugeriu uma mudança potencial na sua colaboração estratégica ou parceria com o laboratório de investigação de inteligência artificial.

Como investigador que estuda o impacto da inteligência artificial (IA) na sociedade, deparei-me com um desenvolvimento preocupante: os actores maliciosos têm agora a capacidade de gerar deepfakes de qualquer indivíduo, mesmo aqueles em áreas criativas, sem o seu consentimento. Esses deepfakes podem ser usados ​​para lucrar com conteúdo falsificado, manchando reputações e causando danos.

Como analista, notei uma correlação alarmante entre a introdução do projeto de lei proposto e um aumento surpreendente de 245% nas fraudes e golpes relacionados ao deepfake. De acordo com o último relatório da Bitget, prevê-se que estes esquemas fraudulentos causem perdas financeiras no valor de aproximadamente 10 mil milhões de dólares até 2025.

No mundo dinâmico das criptomoedas, me deparei com uma questão preocupante. Os golpistas estão empregando tecnologia avançada de inteligência artificial (IA) para imitar as identidades de figuras influentes como Elon Musk e Vitalik Buterin. Seu objetivo é enganar usuários desavisados, enviando mensagens ou links fraudulentos, muitas vezes solicitando investimentos em projetos inexistentes ou criptomoedas. Sempre verifique qualquer comunicação supostamente vinda desses indivíduos, especialmente se envolver transações financeiras. Fique atento e proteja seus ativos criptográficos.

Em junho de 2024, um usuário da exchange de criptomoedas OKX sofreu perdas significativas superiores a US$ 2 milhões como resultado de invasores explorarem a segurança da plataforma por meio de vídeos deepfake retratando enganosamente a vítima. Antes deste incidente, as autoridades de Hong Kong tomaram medidas contra um esquema fraudulento em maio de 2024 que manipulou a imagem de Elon Musk para enganar potenciais investidores.

Como pesquisador que estuda tendências tecnológicas, deparei-me com críticas de Michael Marcotte, fundador do Centro Nacional de Cibersegurança (NCC), ao Google por medidas de proteção insuficientes contra falsificações profundas visando especificamente criptomoedas.

2024-07-12 12:12