Nick Bostrom

|ideias=Princípio antrópico
Teste de reversão
Hipótese da simulação
Risco existencial
''Singleton'' (governança global)
Risco da informação
Paralisia infinita
Pressuposto de autoindicação
Pressuposto de autoamostragem|nome_de_nascimento=Niklas Boström|nascimento_local=Helsingborg, Suécia|imagem_legenda=Bostrom em 2020|data_nascimento=|interesses=Filosofia da inteligência artificial
Bioética}}Nick Bostrom (/ ; ; nascido em 10 de março de 1973 na Suécia) é um filósofo conhecido por seu trabalho sobre risco existencial, princípio antrópico, ética do aperfeiçoamento humano, transferência mental, riscos da superinteligência e o teste de reversão. Ele foi o diretor fundador do agora dissolvido Future of Humanity Institute na Universidade de Oxford e atualmente é pesquisador principal da Macrostrategy Research Initiative.

Bostrom é o autor de ''Anthropic Bias: Observation Selection Effects in Science and Philosophy'' (2002), ''Superintelligence: Paths, Dangers, Strategies'' (2014) e ''Deep Utopia: Life and Meaning in a Solved World'' (2024).

Bostrom acredita que os avanços na inteligência artificial (IA) podem levar à superinteligência, que ele define como “qualquer intelecto que exceda em muito o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse”. Ele vê esse fato como uma grande fonte de oportunidades e riscos existenciais. Fornecido pela Wikipedia
Mostrando 1 - 2 resultados de 2 para a busca 'Bostrom, Nick', tempo de busca: 0.01s Refinar Resultados
  1. 1
    por Bostrom, Nick
    Publicado em 2014
    Printed Book
  2. 2
    Printed Book