Alfred Loewenstein: o terceiro homem mais rico do mundo na década de 1920 desapareceu em pleno vôo de seu próprio avião

Imagem
  Alfred Loewenstein era uma das pessoas mais ricas do mundo. Ele estava sobrevoando o Canal da Mancha em um avião. Mas de repente ele desapareceu, o que surpreendeu todos no avião. Este evento se tornou um grande mistério. Ele nasceu na Bélgica e trabalhou como banqueiro. Ele era famoso por sua riqueza durante uma época chamada Era Dourada. No entanto, pouco antes da quebra do mercado de ações em 1929 e da Grande Depressão, ele desapareceu. Dizem que ele caiu do avião, mas ninguém sabe ao certo o que realmente aconteceu. Alfred Loewenstein foi um financista muito poderoso no início do século XX. Ele enriqueceu ajudando diferentes setores a trabalhar com bancos. Ele também investiu em muitas empresas na Europa e teve a ideia de uma “holding”. A história começa em 4 de julho de 1928, à noite. Alfred e sua equipe embarcaram em um avião particular (o Fokker FVII, um pequeno monoplano) no aeroporto de Croydon. Eles iriam para a Bélgica, país natal de Alfredo, como faziam com frequência. O

Salve SkyNet! Que venha o Terminator: Musk e Wozniak pediram a suspensão do treinamento do sistema de IA mais poderoso que o GPT-4


A Future of Life, uma organização sem fins lucrativos, publicou uma carta na qual o CEO da SpaceX, Elon Musk, o cofundador da Apple, Steve Wozniak, o filantropo Andrew Yang e cerca de mil outros pesquisadores de inteligência artificial pedem uma “suspensão imediata” do treinamento de Sistemas de IA “mais poderosos que o GPT-4”.


A carta afirma que os sistemas de inteligência artificial com “inteligência humana competitiva” podem trazer “sérios riscos para a sociedade e a humanidade”. Ela pede que os laboratórios suspendam os treinamentos por seis meses.

___________

“Sistemas poderosos de inteligência artificial só devem ser desenvolvidos quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”, enfatizam os autores da carta.

Mais de 1.125 pessoas assinaram a petição, incluindo o cofundador do Pinterest, Evan Sharp, o cofundador da Ripple, Chris Larsen, o CEO da Stability AI, Emad Mostak, e pesquisadores da DeepMind, Harvard, Oxford e Cambridge. A carta também foi assinada pelos pesos pesados ​​da IA ​​Yoshua Bengio e Stuart Russell. Este último também pediu que o desenvolvimento de IA avançada seja suspenso até que especialistas independentes desenvolvam, implementem e testem protocolos de segurança comuns para esses sistemas de IA.

A carta detalha os riscos potenciais para a sociedade e a civilização de sistemas de IA competitivos na forma de convulsões econômicas e políticas.

Eis a íntegra da carta:

“Sistemas de inteligência artificial que competem com humanos podem representar um sério perigo para a sociedade e a humanidade, como uma extensa pesquisa mostrou e reconhecida pelos principais laboratórios de inteligência artificial. Conforme declarado nos princípios amplamente endossados ​​da Asilomar AI, a IA avançada pode desencadear mudanças profundas na história da vida na Terra e deve ser projetada e gerenciada com cuidado e recursos adequados. Infelizmente, esse nível de planejamento e gerenciamento não existe, embora nos últimos meses os laboratórios de IA tenham estado atolados em uma corrida descontrolada para desenvolver e implantar “mentes digitais” cada vez mais poderosas, cujo desempenho não pode ser previsto ou controlado com segurança, que ninguém – nem mesmo seus criadores – podem entender.

Os sistemas modernos de inteligência artificial estão se tornando competitivos na solução de problemas comuns, e devemos nos perguntar: devemos permitir que as máquinas inundem nossos canais de informação com propaganda e falsificações? Devemos automatizar todos os trabalhos, incluindo aqueles que estão sendo potencialmente substituídos por IA? Deveríamos desenvolver “mentes não humanas” que poderiam eventualmente nos superar em número, nos enganar e nos substituir? Devemos arriscar perder o controle de nossa civilização?

Tais decisões não devem ser delegadas a líderes de tecnologia não eleitos. Sistemas poderosos de inteligência artificial só devem ser desenvolvidos quando estivermos confiantes de que seus efeitos serão positivos e os riscos administráveis. Essa confiança deve ser bem fundamentada e só crescer com a ampliação dos efeitos potenciais de tais sistemas. Uma declaração recente da OpenAI sobre inteligência artificial geral afirma que “em algum momento, pode ser importante obter uma avaliação independente antes de embarcar no treinamento de sistemas futuros e, para os esforços mais avançados, concordar em limitar a taxa de crescimento dos cálculos usados ​​para criar novos modelos." Nós concordamos. Esse momento chegou agora.

Portanto, pedimos a todos os laboratórios de IA que suspendam imediatamente o treinamento em sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses. Essa pausa deve ser universal e controlada, e todos os principais participantes devem estar envolvidos nela. Se tal pausa não puder ser estabelecida rapidamente, os governos devem intervir e impor uma moratória.

AI Labs e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança comuns para design e desenvolvimento avançados de IA que serão cuidadosamente revisados ​​e monitorados por especialistas externos independentes. Esses protocolos são para garantir que os sistemas que aderem a eles sejam seguros além de qualquer dúvida razoável. Isso não significa uma pausa no desenvolvimento da IA ​​em geral, mas simplesmente um passo atrás de uma corrida perigosa em direção a modelos cada vez maiores e imprevisíveis de “caixa preta” com mais recursos.

A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os poderosos sistemas de IA de última geração mais precisos, seguros, interpretáveis, transparentes, confiáveis, consistentes, confiáveis ​​e leais.

Paralelamente, os desenvolvedores de IA devem trabalhar com políticas para acelerar bastante o desenvolvimento de sistemas robustos de controle de IA. Esses esforços devem incluir, no mínimo: reguladores de IA novos e capazes; supervisão e monitoramento de sistemas de inteligência artificial de alto desempenho e grandes pools de poder de computação; sistemas de verificação e marca d'água que ajudam a distinguir o conteúdo real do conteúdo gerado e rastreiam vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados ​​por IA; forte financiamento público para pesquisa técnica em segurança de IA; instituições com bons recursos para lidar com as graves convulsões econômicas e políticas (especialmente nas democracias) que a IA causará.

A humanidade poderá desfrutar de um futuro próspero com a IA. Tendo conseguido criar sistemas poderosos, chegaremos ao “verão da IA” quando colheremos os benefícios, desenvolveremos esses sistemas para o benefício de todos e daremos à sociedade a oportunidade de se adaptar a eles. A sociedade suspendeu o uso de outras tecnologias, com consequências potencialmente catastróficas. Podemos aplicar essa medida aqui também.”

Os principais laboratórios de inteligência artificial, como o OpenAI, ainda não responderam à carta.

___________

“A carta não é perfeita, mas seu espírito está certo: precisamos desacelerar até entender melhor todos os riscos”, disse Gary Marcus, professor emérito da Universidade de Nova York, que assinou a carta. “Os sistemas de IA podem causar sérios danos… Os grandes jogadores estão se tornando cada vez mais reservados sobre o que estão fazendo.”

A OpenAI introduziu o GPT-4 em 14 de março. O modelo é capaz de interpretar não apenas texto, mas também imagens. Ela agora também reconhece imagens esboçadas, incluindo as desenhadas à mão.

Após o anúncio do novo modelo de linguagem, a OpenAI se recusou a publicar os materiais de pesquisa subjacentes a ele. Membros da comunidade de IA criticaram a decisão, observando que ela prejudica o espírito da empresa como organização de pesquisa e dificulta a replicação de seu trabalho por outras pessoas. Ao mesmo tempo, isso dificulta o desenvolvimento de meios de proteção contra ameaças representadas por sistemas de IA.

Salve SkyNet! Que venha o Exterminador do Futuro!

E não esqueça: nossa página principal é atualizada diariamente, com novos artigos podendo ser publicados ao longo do dia. Clique aqui.

PARTICIPE DOS COMENTÁRIOS MAIS ABAIXO…

GALERA AJUDA O BLOG COM UM PIX QUAL QUER VALOR É BEM VINDO (0,50.1 REAL, 2 REAIS ,3 REAIS ,5 REAIS... )

                    fronteiraxoficial@gmail.com

                             OU 


https://www.youtube.com/channel/UCxv4QmG_elAo7eiKJAOW7Jg

ÁREA DE COMENTÁRIOS

Atenção:

  • Os comentários são de responsabilidade única e exclusiva de cada pessoa que comenta. FRONTEIRAS X não se responsabiliza por transtornos, rixas ou quaisquer outras indisposições causadas pelos comentários.
  • Comente educadamente e com éticasempre tratando seu colega de comentários como você mesmo/a queira ser tratado/a.

Comentários

postagens mais vistas

Reptiliano na TV nacional? A "transformação" ao vivo de um general

O Denunciante Phil Schneider É Encontrado Morto Após Revelar A Agenda Alienígena

Metrópole Anunnaki? Com mais de 200 mil anos foi descoberta na África e reescreve a História?

O OUTRO LADO DA LUA - BASES ALIENÍGENAS OU O CEMITÉRIO DE UM ANTIGO ASTRONAUTA ?

Um “chamado” das profundezas do oceano intrigam cientistas