Artwork

Το περιεχόμενο παρέχεται από το Jeff Wilser. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Jeff Wilser ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.
Player FM - Εφαρμογή podcast
Πηγαίνετε εκτός σύνδεσης με την εφαρμογή Player FM !

New AI (and AI-agent) Safety Risks, w/ AI Safety Expert Bo Li

43:31
 
Μοίρασέ το
 

Manage episode 418697244 series 3503527
Το περιεχόμενο παρέχεται από το Jeff Wilser. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Jeff Wilser ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

Many have been worried about AI safety. But the stakes were just raised: OpenAI and Google just announced new capabilities that look likely to usher in the new era of “AI agents,” meaning tools that will automatically accomplish tasks for you like buying plane tickets or even how to invest your 401k. What could go wrong?

It’s Bo Li’s job to figure out what could go wrong. Li is an Associate Professor at the University of Chicago, where she conducts research and experiments on AI safety. Her team does “red team” analysis to try and hack and jail-break AI to sniff out problems. She already uncovered flaws in the AI that powers self-driving cars, and the systems then improved as a response to her work.

We get into the tricky problem of AI agents, the AI safety risks that keep her up at night, the possible dystopia of AI-injected deep fakes — and tools that could fight them — as well as why Li is NOT worried about existential risks to humanity.

I found this conversation oddly…comforting? Hope you enjoy!

  continue reading

44 επεισόδια

Artwork
iconΜοίρασέ το
 
Manage episode 418697244 series 3503527
Το περιεχόμενο παρέχεται από το Jeff Wilser. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Jeff Wilser ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

Many have been worried about AI safety. But the stakes were just raised: OpenAI and Google just announced new capabilities that look likely to usher in the new era of “AI agents,” meaning tools that will automatically accomplish tasks for you like buying plane tickets or even how to invest your 401k. What could go wrong?

It’s Bo Li’s job to figure out what could go wrong. Li is an Associate Professor at the University of Chicago, where she conducts research and experiments on AI safety. Her team does “red team” analysis to try and hack and jail-break AI to sniff out problems. She already uncovered flaws in the AI that powers self-driving cars, and the systems then improved as a response to her work.

We get into the tricky problem of AI agents, the AI safety risks that keep her up at night, the possible dystopia of AI-injected deep fakes — and tools that could fight them — as well as why Li is NOT worried about existential risks to humanity.

I found this conversation oddly…comforting? Hope you enjoy!

  continue reading

44 επεισόδια

Όλα τα επεισόδια

×
 
Loading …

Καλώς ήλθατε στο Player FM!

Το FM Player σαρώνει τον ιστό για podcasts υψηλής ποιότητας για να απολαύσετε αυτή τη στιγμή. Είναι η καλύτερη εφαρμογή podcast και λειτουργεί σε Android, iPhone και στον ιστό. Εγγραφή για συγχρονισμό συνδρομών σε όλες τις συσκευές.

 

Οδηγός γρήγορης αναφοράς