Artwork

Το περιεχόμενο παρέχεται από το London Futurists. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον London Futurists ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.
Player FM - Εφαρμογή podcast
Πηγαίνετε εκτός σύνδεσης με την εφαρμογή Player FM !

What is your p(doom)? with Darren McKee

42:17
 
Μοίρασέ το
 

Manage episode 396031929 series 3390521
Το περιεχόμενο παρέχεται από το London Futurists. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον London Futurists ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

In this episode, our subject is Uncontrollable: The Threat of Artificial Superintelligence and the Race to Save the World. That’s a new book on a vitally important subject.
The book’s front cover carries this endorsement from Professor Max Tegmark of MIT: “A captivating, balanced and remarkably up-to-date book on the most important issue of our time.” There’s also high praise from William MacAskill, Professor of Philosophy at the University of Oxford: “The most accessible and engaging introduction to the risks of AI that I’ve read.”
Calum and David had lots of questions ready to put to the book’s author, Darren McKee, who joined the recording from Ottawa in Canada.
Topics covered included Darren's estimates for when artificial superintelligence is 50% likely to exist, and his p(doom), that is, the likelihood that superintelligence will prove catastrophic for humanity. There's also Darren's recommendations on the principles and actions needed to reduce that likelihood.
Selected follow-ups:
Darren McKee's website
The book Uncontrollable
Darren's podcast The Reality Check
The Lazarus Heist on BBC Sounds
The Chair's Summary of the AI Safety Summit at Bletchley Park
The Statement on AI Risk by the Center for AI Safety
Music: Spike Protein, by Koi Discovery, available under CC0 1.0 Public Domain Declaration

  continue reading

Κεφάλαια

1. What is your p(doom)? with Darren McKee (00:00:00)

2. [Ad] Out-of-the-box insights from digital leaders (00:12:05)

3. (Cont.) What is your p(doom)? with Darren McKee (00:12:43)

100 επεισόδια

Artwork
iconΜοίρασέ το
 
Manage episode 396031929 series 3390521
Το περιεχόμενο παρέχεται από το London Futurists. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον London Futurists ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

In this episode, our subject is Uncontrollable: The Threat of Artificial Superintelligence and the Race to Save the World. That’s a new book on a vitally important subject.
The book’s front cover carries this endorsement from Professor Max Tegmark of MIT: “A captivating, balanced and remarkably up-to-date book on the most important issue of our time.” There’s also high praise from William MacAskill, Professor of Philosophy at the University of Oxford: “The most accessible and engaging introduction to the risks of AI that I’ve read.”
Calum and David had lots of questions ready to put to the book’s author, Darren McKee, who joined the recording from Ottawa in Canada.
Topics covered included Darren's estimates for when artificial superintelligence is 50% likely to exist, and his p(doom), that is, the likelihood that superintelligence will prove catastrophic for humanity. There's also Darren's recommendations on the principles and actions needed to reduce that likelihood.
Selected follow-ups:
Darren McKee's website
The book Uncontrollable
Darren's podcast The Reality Check
The Lazarus Heist on BBC Sounds
The Chair's Summary of the AI Safety Summit at Bletchley Park
The Statement on AI Risk by the Center for AI Safety
Music: Spike Protein, by Koi Discovery, available under CC0 1.0 Public Domain Declaration

  continue reading

Κεφάλαια

1. What is your p(doom)? with Darren McKee (00:00:00)

2. [Ad] Out-of-the-box insights from digital leaders (00:12:05)

3. (Cont.) What is your p(doom)? with Darren McKee (00:12:43)

100 επεισόδια

Alle episoder

×
 
Loading …

Καλώς ήλθατε στο Player FM!

Το FM Player σαρώνει τον ιστό για podcasts υψηλής ποιότητας για να απολαύσετε αυτή τη στιγμή. Είναι η καλύτερη εφαρμογή podcast και λειτουργεί σε Android, iPhone και στον ιστό. Εγγραφή για συγχρονισμό συνδρομών σε όλες τις συσκευές.

 

Οδηγός γρήγορης αναφοράς