Nova carta aberta pede medidas contra ameaças existenciais como (pode vir a ser) a Inteligência Artificial

Richard Branson e Ban Ki-moon estão entre os signatários desta nova carta aberta para a reflexão sobre os riscos existenciais que a humanidade enfrenta hoje, onde a inteligência artificial volta a ser colocada e explica-se porquê. Nova carta aberta pede medidas contra ameaças existenciais como (pode vir a ser) a Inteligência Artificial Virgin Galactic

“O nosso 💥️mundo está em grande perigo. Enfrentamos um conjunto de ameaças que põem toda a humanidade em risco. Os nossos líderes não estão a responder com a sabedoria e urgência necessárias”. Esta é uma das passagens de uma 💥️nova carta aberta, assinada por várias personalidades mediáticas, que pedem aos líderes do mundo visão e estratégias de longo prazo para endereçar questões que podem conduzir a ameaças existenciais. 💥️Nesta lista de perigos iminentes colocam-se a inteligência artificial sem regras, a crise climática, as pandemias ou as armas nucleares.

Muitos dos💥️ nomes que assinam esta nova carta aberta, dirigida aos líderes do mundo e focada em perigos que podem converter-se em ameaças para a existência humana, defende-se, são conhecidos. O multimilionário💥️ Richard Branson, o antigo secretário-geral das Nações Unidas 💥️Ban Ki-moon, o neto do físico americano J. Robert Oppenheimer, 💥️Charles Oppenheimer, o ex-Primeiro Ministro britânico 💥️Gordon Brown e vários outros antigos chefes de governos estão na lista de signatários.

Dizem os signatários que os líderes mundiais precisam de ter “determinação para resolver problemas difíceis, não apenas para geri-los, sabedoria para tomar decisões baseadas em evidências científicas e na razão e a humildade de ouvir todos os que são afetados” por estas questões.

Sublinham que o impacto destes riscos já se fazem sentir e dão como exemplos as💥️ rápidas alterações no clima, os efeitos de uma 💥️pandemia que matou milhões e custou biliões, ou a 💥️proliferação das armas nucleares e acreditam que o pior ainda pode estar para vir, se nada de diferente for feito.

E o que pode ser feito? Pedem-se💥️ decisões e ações multilaterais que resultem da combinação de esforços de diversos atores. Por exemplo, ações concertadas para financiar a transição dos combustíveis fósseis ou para 💥️definir um quadro global que oriente a inteligência artificial para o bem.

💥️Veja o vídeo

A 💥️carta foi lançada por uma organização não governamental fundada por Nelson Mandela para promover os direitos humanos e a paz mundial, a 💥️The Elders, em colaboração com a💥️ Future of Life Institute, que já tinha apoiado outra carta aberta lançada no ano passado, que alertava para os riscos existenciais do desenvolvimento sem controlo da inteligência artificial. Esta 💥️primeira carta reuniu também várias figuras públicas, como Elon Musk, fundador da Tesla e da SpaceX e dono da rede social X, ou Steve Wozniak.

Max Tegmark, do MIT, é um dos fundadores do Future of Life Institute e vai levar o texto à conferência de segurança de Munique, que decorre por estes dias. Numa entrevista à CNBC sobre esta nova carta lembrou que 💥️as novas tecnologias podem trazer o melhor, mas esse potencial pode ser posto em causa se o desenvolvimento andar mais rápido que a nossa capacidade de o compreender e moldar aos melhores interesses e fins.

“A velha estratégia para direcionarmos [novas evoluções tecnológicas] para bons usos, sempre foi a de aprender com os erros”, frisou o cosmólogo, dando alguns exemplos.

Inventámos o fogo e mais tarde os extintores. inventámos o carro e mais tarde os cintos de segurança e os limites de velocidade. “💥️Mas quando o poder da tecnologia ultrapassa um limiar, a estratégia de aprender com os erros pode tornar-se péssima”, defendeu.

O que você está lendo é [Nova carta aberta pede medidas contra ameaças existenciais como (pode vir a ser) a Inteligência Artificial ].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...