Artwork

Το περιεχόμενο παρέχεται από το Soroush Pour. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Soroush Pour ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.
Player FM - Εφαρμογή podcast
Πηγαίνετε εκτός σύνδεσης με την εφαρμογή Player FM !

Ep 9 - Scaling AI safety research w/ Adam Gleave (CEO, FAR AI)

1:19:12
 
Μοίρασέ το
 

Manage episode 382307174 series 3428190
Το περιεχόμενο παρέχεται από το Soroush Pour. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Soroush Pour ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

We speak with Adam Gleave, CEO of FAR AI (https://far.ai). FAR AI’s mission is to ensure AI systems are trustworthy & beneficial. They incubate & accelerate research that's too resource-intensive for academia but not ready for commercialisation. They work on everything from adversarial robustness, interpretability, preference learning, & more.
We talk to Adam about:
* The founding story of FAR as an AI safety org, and how it's different from the big commercial labs (e.g. OpenAI) and academia.
* Their current research directions & how they're going
* Promising agendas & notable gaps in the AI safety research
Hosted by Soroush Pour. Follow me for more AGI content:
Twitter: https://twitter.com/soroushjp
LinkedIn: https://www.linkedin.com/in/soroushjp/
== Show links ==
-- About Adam --
Adam Gleave is the CEO of FAR, one of the most prominent not-for-profits focused on research towards AI safety & alignment. He completed his PhD in artificial intelligence (AI) at UC Berkeley, advised by Stuart Russell, a giant in the field of AI. Adam did his PhD on trustworthy machine learning and has dedicated his career to ensuring advanced AI systems act according to human preferences. Adam is incredibly knowledgeable about the world of AI, having worked directly as a researcher and now as leader of a sizable and growing research org.
-- Further resources --
* Adam
* Website: https://www.gleave.me/
* Twitter: https://twitter.com/ARGleave
* LinkedIn: https://www.linkedin.com/in/adamgleave/
* Google Scholar: https://scholar.google.com/citations?user=lBunDH0AAAAJ&hl=en&oi=ao
* FAR AI
* Website: https://far.ai
* Twitter: https://twitter.com/farairesearch
* LinkedIn: https://www.linkedin.com/company/far-ai/
* Job board: https://far.ai/category/jobs/
* AI safety training bootcamps:
* ARENA: https://www.arena.education/
* See also: MLAB, WMLB, https://aisafety.training/
* Research
* FAR's adversarial attack on Katago https://goattack.far.ai/
* Ideas for impact mentioned by Adam
* Consumer report for AI model safety
* Agency model to support AI safety researchers
* Compute cluster for AI safety researchers
* Donate to AI safety
* FAR AI: https://www.every.org/far-ai-inc#/donate/card
* ARC Evals: https://evals.alignment.org/
* Berkeley CHAI: https://humancompatible.ai/
Recorded Oct 9, 2023

  continue reading

15 επεισόδια

Artwork
iconΜοίρασέ το
 
Manage episode 382307174 series 3428190
Το περιεχόμενο παρέχεται από το Soroush Pour. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Soroush Pour ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

We speak with Adam Gleave, CEO of FAR AI (https://far.ai). FAR AI’s mission is to ensure AI systems are trustworthy & beneficial. They incubate & accelerate research that's too resource-intensive for academia but not ready for commercialisation. They work on everything from adversarial robustness, interpretability, preference learning, & more.
We talk to Adam about:
* The founding story of FAR as an AI safety org, and how it's different from the big commercial labs (e.g. OpenAI) and academia.
* Their current research directions & how they're going
* Promising agendas & notable gaps in the AI safety research
Hosted by Soroush Pour. Follow me for more AGI content:
Twitter: https://twitter.com/soroushjp
LinkedIn: https://www.linkedin.com/in/soroushjp/
== Show links ==
-- About Adam --
Adam Gleave is the CEO of FAR, one of the most prominent not-for-profits focused on research towards AI safety & alignment. He completed his PhD in artificial intelligence (AI) at UC Berkeley, advised by Stuart Russell, a giant in the field of AI. Adam did his PhD on trustworthy machine learning and has dedicated his career to ensuring advanced AI systems act according to human preferences. Adam is incredibly knowledgeable about the world of AI, having worked directly as a researcher and now as leader of a sizable and growing research org.
-- Further resources --
* Adam
* Website: https://www.gleave.me/
* Twitter: https://twitter.com/ARGleave
* LinkedIn: https://www.linkedin.com/in/adamgleave/
* Google Scholar: https://scholar.google.com/citations?user=lBunDH0AAAAJ&hl=en&oi=ao
* FAR AI
* Website: https://far.ai
* Twitter: https://twitter.com/farairesearch
* LinkedIn: https://www.linkedin.com/company/far-ai/
* Job board: https://far.ai/category/jobs/
* AI safety training bootcamps:
* ARENA: https://www.arena.education/
* See also: MLAB, WMLB, https://aisafety.training/
* Research
* FAR's adversarial attack on Katago https://goattack.far.ai/
* Ideas for impact mentioned by Adam
* Consumer report for AI model safety
* Agency model to support AI safety researchers
* Compute cluster for AI safety researchers
* Donate to AI safety
* FAR AI: https://www.every.org/far-ai-inc#/donate/card
* ARC Evals: https://evals.alignment.org/
* Berkeley CHAI: https://humancompatible.ai/
Recorded Oct 9, 2023

  continue reading

15 επεισόδια

Alle episoder

×
 
Loading …

Καλώς ήλθατε στο Player FM!

Το FM Player σαρώνει τον ιστό για podcasts υψηλής ποιότητας για να απολαύσετε αυτή τη στιγμή. Είναι η καλύτερη εφαρμογή podcast και λειτουργεί σε Android, iPhone και στον ιστό. Εγγραφή για συγχρονισμό συνδρομών σε όλες τις συσκευές.

 

Οδηγός γρήγορης αναφοράς