logo
KSIĄŻKI
Polska reklama i poligrafiaKSIĄŻKI

Superinteligencja. Scenariusze, strategie, zagrożenia

Autor: Nick Bostrom


liczba stron: 488
wydawca: Helion

książka drukowana: dostępna w helion
54.90 zł
Do koszyka
e-book: dostępna w helion
54.90 zł
Do koszyka
3 w pakiecie:
PDF
ePub
Mobi
cena katalogowa: 54.89 zł
Tytuł w ofercie księgarni helion w dziale: E-biznes,
oraz w:
Informacje:
"Superinteligencja. Scenariusze, strategie, zagrożenia" zdobywcą Economicusa 2017!

Książka Nicka Bostroma zdobyła II miejsce w kategorii "najlepsza zagraniczna książka ekonomiczna przetłumaczona na język polski" w 2016 roku, w tegorocznej edycji Economicusa!

 

 


 



 

Pani Dorota Konowrocka-Sawa, tłumaczka książki, zdobyła wyróżnienie w konkursie na najlepsze tłumaczenie książki technicznej, w ramach nagrody im. Jerzego i Hanny Kuryłowiczów (edycja 2015/2016).


 

Bestseller „New York Timesa”!

Superinteligencja. Czy cyfrowe umysły zagrażają człowiekowi?

Ludzki mózg to dzieło idealne, najdoskonalszy twór w przyrodzie. Jego dominacją zachwiał komputer Deep Blue, który w 1997 roku pokonał w szachy mistrza świata, Garriego Kasparowa. Od tego czasu sztuczna inteligencja jest na ścieżce intensywnego rozwoju. Czy dominacja superinteligencji nad człowiekiem jest realną perspektywą naszej przyszłości? Czy ta przewaga skończy się kresem naszego gatunku?

Niniejsza książka jest odważną i oryginalną próbą znalezienia odpowiedzi na te pytania. Możliwe kierunki rozwoju technologii cyfrowej i jego konsekwencje są trudne do przewidzenia, a rozstrzygnięcie związanych z tym kwestii jest prawdziwym intelektualnym wyzwaniem. Niemniej z niektórych szans i zagrożeń powinniśmy wszyscy sobie zdawać sprawę. Nick Bostrom, wybitny badacz sztucznej inteligencji i transhumanizmu, stara się jasno i klarownie przedstawić przyszłe konsekwencje coraz większego udziału maszyn w naszym życiu, opisuje możliwe komplikacje i strategie rozwiązania ewentualnych problemów. Lektura tej książki jest niesamowitą podróżą na krańce istoty człowieczeństwa, wyprawą do przyszłości inteligentnego życia i prawdziwie fascynującym doświadczeniem.

Kluczowe zagadnienia ujęte w książce:


dotychczasowe osiągnięcia w dziedzinie sztucznej inteligencji,
superinteligencja i jej możliwe ścieżki rozwoju,
zagłada ludzkości a rozwój superinteligencji,
kontrola nad umysłem człowieka w przyszłości.



Nick Bostrom — szwedzki filozof, profesor Uniwersytetu Oksfordzkiego, kierownik Instytutu Przyszłości Ludzkości działającego w ramach Oxford Martin School. Autor licznych prac dotyczących transhumanizmu (idei zakładającej wykorzystanie osiągnięć nauki i techniki w celu przezwyciężenia ludzkich ograniczeń). W 2009 roku otrzymał za swoją pracę Nagrodę Gannona. Magazyn „Foreign Policy” umieścił go na liście 100 czołowych myślicieli świata.


 


„Gorąco polecam tę książkę”

Bill Gates



„Cenna lektura. Konsekwencje sprowadzenia na Ziemię drugiego gatunku inteligentnego są na tyle dalekosiężne, że zasługują na głęboki namysł”

The Economist



„Siła argumentów Bostroma nie budzi wątpliwości. (...) To wyzwanie badawcze warte jest podjęcia przez najtęższe umysły matematyczne kolejnego pokolenia. Na szali leży los cywilizacji człowieka”

Clive Cookson, Financial Times



Na stronach działu "Książki" prezentowane są informacje promocyjne pochodzące od niezależnych od Signs.pl, zewnętrznych dostawców, które nie są wiążące prawnie. Informacje te, w szczególności ceny, nie stanowią oferty handlowej w rozumieniu art. 66 ust. 1 Kodeksu Cywilnego oraz innych właściwych przepisów prawa. Ceny, dostępność oraz specyfikacja produktów mogą ulegać zmianom. Signs.pl nie jest stroną w transakcjach związanych z prezentowanymi tu produktami. Użycie przycisku "Do koszyka" powoduje przeniesienie użytkownika na stronę dostawcy, gdzie może on zapoznać się z wiążącą prawnie ofertą handlową oraz zawrzeć z dostawcą umowę kupna sprzedaży. Signs.pl nie ponosi odpowiedzialności za nieaktualne, nieścisłe lub niepełne dane prezentowane w tym dziale.
REKLAMA
 
Signs.pl - Polska Reklama i Poligrafia © 1997-2021 ICOSWszystkie prawa zastrzeżone. ISSN 2657-4764