E aí, pessoal! Prontos para embarcar na viagem maluca das notícias de cripto? No nosso canal do Telegram, vamos explorar o mundo das criptomoedas com leveza e bom humor. É como um papo de bar sobre Bitcoin, só que sem a ressaca no dia seguinte! 😄 Junte-se a nós agora e vamos desvendar esse universo juntos! 💸🚀
☞ Junte-se ao Telegram
Como investigador com experiência em inteligência artificial e tecnologia blockchain, acredito firmemente que a disputa legal em curso entre Elon Musk e a OpenAI levanta preocupações significativas sobre as verdadeiras intenções das empresas de IA com fins lucrativos. Embora a transformação da OpenAI numa organização com fins lucrativos possa parecer atraente à primeira vista, o seu foco excessivo nos lucros pode potencialmente levar a consequências prejudiciais para os utilizadores finais.
Elon Musk entrou com uma ação judicial contra a OpenAI, acusando a empresa de se desviar de sua missão original de criar inteligência artificial geral (AGI) “para a melhoria da humanidade”. Carlos E. Perez especula que esta ação legal poderia potencialmente transformar a OpenAI no próximo WeWork, uma referência à proeminente empresa de tecnologia que enfrentou desafios financeiros e de reputação significativos após um período de rápido crescimento.
Nesta disputa legal em curso, a mudança da OpenAI no sentido de obter lucro está sob escrutínio. No entanto, uma ênfase excessiva nos ganhos financeiros da empresa pode ocultar agendas egoístas. Além disso, esta ênfase desvia-se de considerações essenciais para os utilizadores: garantir o desenvolvimento ético da IA e o tratamento eficaz dos dados.
Grok, ideia de Elon e concorrente do ChatGPT, pode acessar “informações em tempo real” a partir de tweets. De qualquer forma, o OpenAI é famoso por extrair dados protegidos por direitos autorais a torto, a direito e no centro. Agora, o Google fechou um acordo de US$ 60 milhões para acessar os dados dos usuários do Reddit para treinar Gemini e Cloud AI.
Como investidor em criptografia, acredito que apenas defender projetos de código aberto não é suficiente para proteger os interesses dos usuários no espaço criptográfico. Em vez disso, precisamos de mecanismos que garantam um consentimento genuíno e uma compensação justa para os indivíduos que contribuem para a formação de grandes modelos linguísticos (LLMs). As plataformas emergentes que facilitam o crowdsourcing de dados de formação em IA são essenciais para resolver esta questão. Irei me aprofundar neste tema mais adiante.
É principalmente sem fins lucrativos para os usuários
Aproximadamente 5,3 mil milhões de pessoas em todo o mundo utilizam a Internet e cerca de 93% desta enorme base de utilizadores depende de plataformas centralizadas de redes sociais. Consequentemente, é razoável supor que uma parte significativa dos estimados 147 mil milhões de terabytes de dados gerados online em 2023 teve origem nos utilizadores. Este volume está projetado para ultrapassar 180 bilhões de terabytes até 2025.
Embora esta enorme recolha de dados ou “informações acessíveis ao público” potencie significativamente a aprendizagem e o desenvolvimento da IA, os utilizadores muitas vezes não conseguem obter vantagens substanciais dela. Eles não têm controle nem propriedade verdadeira sobre os dados usados. O método comum de consentimento dado por meio de um botão “Concordo” é, na melhor das hipóteses, questionável e, na pior das hipóteses, quase coercitivo. Em vez disso, deveríamos esforçar-nos por formas mais transparentes e significativas para os utilizadores compreenderem e controlarem a forma como as suas informações estão a ser utilizadas.
Como analista de dados, percebi que, tal como o petróleo se tornou um recurso valioso para as indústrias, os dados assumiram um papel semelhante na economia digital de hoje. No entanto, é importante notar que a atual dinâmica de poder em torno da propriedade de dados está voltada para as grandes empresas de tecnologia.
À luz da progressão dos blockchains para a tecnologia fundamental para distribuição e autenticidade de dados, chegamos a um momento emocionante para os usuários. Fundamentalmente, as empresas modernas de IA dão prioridade a estas soluções para melhorar o desempenho, reduzir custos e, acima de tudo, promover o bem-estar da humanidade.
Crowdsourcing de dados para treinamento ético em IA
O modelo “leitura-gravação-confiança” da Web2 pressupõe que as entidades e as partes interessadas se comportarão de forma altruísta. No entanto, como David Hume salientou há séculos, as pessoas são movidas principalmente pelos seus próprios interesses.
No modelo Web3, que é caracterizado por “leitura-gravação-propriedade”, utilizo tecnologias como blockchain e criptografia para garantir que nenhum participante individual na rede descentralizada possa agir de forma maliciosa ou enganosa. Chris se aprofunda nesse conceito em seu livro.
Como investidor em criptografia, acredito que a pilha de tecnologia web3 é fundamentalmente diferente dos sistemas tecnológicos tradicionais. É orientado pela comunidade e controlado pelo usuário, permitindo que os indivíduos retomem o controle de seus ativos e dados digitais. A tecnologia nos fornece as ferramentas para armazenar e gerenciar com segurança nossos tipos de informações financeiras, sociais, criativas e outros.
Nos últimos tempos, surgiram avanços nas técnicas de privacidade e segurança, como provas de conhecimento zero (zkProofs) e computação multipartidária (MPC). Estas inovações oferecem soluções inovadoras para verificação, troca e controlo de dados, permitindo que as partes autentiquem factos sem divulgar as informações subjacentes.
Do ponto de vista do desenvolvimento da inteligência artificial (IA), estas extensas capacidades são significativas. Hoje em dia é viável obter dados confiáveis sem depender de fornecedores ou verificadores centralizados. No entanto, o que realmente diferencia o web3 é a sua estrutura descentralizada e sem intermediários, que permite interações diretas entre produtores de dados – nomeadamente, utilizadores – e projetos de IA que necessitam dos seus dados para formação de modelos.
Como analista, eu diria o seguinte: eliminar a necessidade de “intermediários confiáveis” e guardiões leva a economias substanciais de custos. Além disso, esta configuração permite que os projetos recompensem os usuários diretamente por suas contribuições e esforços. Os usuários podem aproveitar oportunidades como gravar scripts em seu dialeto nativo ou identificar e categorizar objetos ganhando criptomoedas em troca. Essas microtarefas incluem tarefas como reconhecer e rotular imagens, classificar dados não estruturados e muito mais.
Em vez de “As empresas, por outro lado, podem construir modelos mais precisos usando dados de alta qualidade validados por humanos no circuito e a um preço justo. É uma situação em que todos ganham”, você poderia dizer:
Avanços de baixo para cima, não apenas código aberto
Na sua forma atual, as estruturas tradicionais favorecem fortemente os indivíduos e as comunidades de utilizadores, tornando o conceito de código aberto sem sentido neste contexto. Uma transformação significativa nos modelos de negócio e métodos de formação existentes é essencial para promover o desenvolvimento ético da Inteligência Artificial (IA).
Mudar de estruturas centralizadas e hierárquicas para processos descentralizados e participativos é uma abordagem mais eficaz. Também é crucial construir um sistema baseado no mérito e no valor, priorizando a propriedade, a autonomia e o trabalho em equipe. Neste contexto, a distribuição justa dos recursos conduz a uma maior prosperidade, em vez de acumular o máximo possível.
É intrigante que esses sistemas tragam vantagens significativas para grandes corporações, bem como para pequenas empresas e usuários individuais. Na verdade, dados de primeira linha, preços razoáveis e modelos precisos de IA são essenciais para todas as partes.
Como analista do setor, acredito firmemente que, com os atuais incentivos em vigor, é do nosso interesse coletivo adaptar e integrar os modelos da nova era. Apegar-se a métodos ultrapassados e a ganhos limitados pode proporcionar benefícios a curto prazo, mas não nos sustentarão a longo prazo, uma vez que o futuro apresenta requisitos novos e distintos em comparação com o passado.
William Simonin é presidente do Ta-da, um mercado de dados de IA que utiliza blockchain para gamificar a verificação de dados. Anteriormente, ele trabalhou como engenheiro de software e pesquisador para o Ministério da Defesa francês por cerca de seis anos e para a Associação de Segurança da Epitech Nancy, atuando como presidente e posteriormente como professor de Programação Funcional. Ele é um empresário francês e cofundador de várias empresas de IA, tecnologia e criptomoeda.
- PEOPLE PREVISÃO. PEOPLE criptomoeda
- W PREVISÃO. W criptomoeda
- Outro estado da UE poderia ajudar Kiev a repatriar homens em idade militar
- Rede de 1 polegada aumenta 15% esta semana! O preço de 1INCH atingirá US$ 0,5 esta semana?
- O cantor brasileiro Ayres Sasaki morreu aos 35 anos após ser eletrocutado ao ‘abraçar um fã molhado no palco’
- WIF PREVISÃO. WIF criptomoeda
- QNT PREVISÃO. QNT criptomoeda
- AMP PREVISÃO. AMP criptomoeda
- Ligação entre ataque terrorista em Moscou e nacionalistas ucranianos ‘confirmada’ – chefe de segurança russo
- Adolescente é detido após ‘surfar em trem’ de alta velocidade de 400 milhas
2024-05-25 16:54