måndag 15 februari 2016

2xArmstrong

Från Häggström hävdar
Future of Humanity Institute (FHI) i Oxford (som jag nyligen besökte) finns en rad vassa forskare som inte räds att ta sig an de riktigt svåra frågorna om världens beskaffenhet och mänsklighetens framtid. En av dem är Stuart Armstrong, som vid återkommande tillfällen haft stort inflytande över innehållet på denna blogg (se t.ex. den här bloggposten, och den här). Idag vill jag slå ett slag för två andra försök han gjort att lära oss andra att tänka lite förståndigare i stora och viktiga frågor.

För det första har vi hans nyinspelade åttaminutersvideo Common fallacies in probability, där han varnar för ett antal dolda och felaktiga men ack så vanliga sannolikhetsargument. Jag skulle själv inte ha lagt fram saken exakt så som Stuart gör (specifikt tycker jag att han är aningen för lättvindig med att avbilda "vi vet inte alls" någonstans kring sannolikhet 50%), men på det stora hela håller jag med honom, och tror att de flesta har mycket att vinna på att ta till sig hans budskap.


För det andra har vi hans lilla bok Smarter Than Us: The Rise of Machine Intelligence från 2014. Budskapet om de faror som ett genombrott inom artificiell intelligens är i stora drag detsamma som hans FHI-kollega Nick Bostrom lägger fram i sin betydligt mer omfattande bok Superintelligence från samma år (och som jag själv behandlar i Kapitel 4 i min nya bok Here Be Dragons: Science, Technology and the Future of Humanity), men Stuarts framställning är betydligt mer lättläst, och dessutom tillgänglig för gratis nedladdning. En riktig liten pärla är det som Stuart har fått till, och med hans tillstånd citerar jag härmed hela Kapitel 1 och lite till: