Artwork

Το περιεχόμενο παρέχεται από το Team PolyAI. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Team PolyAI ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.
Player FM - Εφαρμογή podcast
Πηγαίνετε εκτός σύνδεσης με την εφαρμογή Player FM !

019: How practically safeguarding generative AI works IRL

26:50
 
Μοίρασέ το
 

Manage episode 398754018 series 3533896
Το περιεχόμενο παρέχεται από το Team PolyAI. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Team PolyAI ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

Kylie Whitehead and Meghan Berton discuss the importance of implementing guardrails to limit a system to its intended scope and ensure the generated outputs are safe. They also touch on topics like user input filtering, hybrid generative AI solutions, hallucination management, and preventing offensive or biased responses. These and highlighting challenges and opportunities of using generative AI in voice assistants and the importance of continuously improving and refining the technology - in today's episode!

Follow PolyAI on LinkedIn
Watch this and other episodes of the Deep Learning pod on YouTube

  continue reading

31 επεισόδια

Artwork
iconΜοίρασέ το
 
Manage episode 398754018 series 3533896
Το περιεχόμενο παρέχεται από το Team PolyAI. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Team PolyAI ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

Kylie Whitehead and Meghan Berton discuss the importance of implementing guardrails to limit a system to its intended scope and ensure the generated outputs are safe. They also touch on topics like user input filtering, hybrid generative AI solutions, hallucination management, and preventing offensive or biased responses. These and highlighting challenges and opportunities of using generative AI in voice assistants and the importance of continuously improving and refining the technology - in today's episode!

Follow PolyAI on LinkedIn
Watch this and other episodes of the Deep Learning pod on YouTube

  continue reading

31 επεισόδια

All episodes

×
 
Loading …

Καλώς ήλθατε στο Player FM!

Το FM Player σαρώνει τον ιστό για podcasts υψηλής ποιότητας για να απολαύσετε αυτή τη στιγμή. Είναι η καλύτερη εφαρμογή podcast και λειτουργεί σε Android, iPhone και στον ιστό. Εγγραφή για συγχρονισμό συνδρομών σε όλες τις συσκευές.

 

Οδηγός γρήγορης αναφοράς