Artwork

Το περιεχόμενο παρέχεται από το Andreas Welsch. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Andreas Welsch ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.
Player FM - Εφαρμογή podcast
Πηγαίνετε εκτός σύνδεσης με την εφαρμογή Player FM !

Secure Your LLM Against Common Vulnerabilities (Guest: Steve Wilson)

27:24
 
Μοίρασέ το
 

Manage episode 378635955 series 3437240
Το περιεχόμενο παρέχεται από το Andreas Welsch. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Andreas Welsch ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

In this episode, Steve Wilson (Project Leader, OWASP Foundation) and Andreas Welsch discuss securing your Large Language Model against common vulnerabilities. Steve shares his findings from co-authoring the OWASP Top 10 on LLMs report and provides valuable advice for listeners looking to improve the security of their Generative AI enabled applications.
Key topics:
- What are the most important vulnerabilities of LLMs?
- What are developers underestimating about these security risks?
- How will these vulnerabilities be exploited?
- How can AI leaders and developers mitigate or prevent it?
Listen to the full episode and hear how you can:
- Balance innovation and security risks of new technologies like generative AI
- Understand the difference between direct and indirect prompt injections
- Prevent over-assigning agency to LLMs
- Establish trust boundaries and treat LLM-generated output as untrusted
Watch this episode on YouTube:
https://youtu.be/TpIowNnAcj4

Questions or suggestions? Send me a Text Message.

Support the Show.

***********
Disclaimer: Views are the participants’ own and do not represent those of any participant’s past, present, or future employers. Participation in this event is independent of any potential business relationship (past, present, or future) between the participants or between their employers.

Level up your AI Leadership game with the AI Leadership Handbook:
https://www.aileadershiphandbook.com
More details:
https://www.intelligence-briefing.com
All episodes:
https://www.intelligence-briefing.com/podcast
Get a weekly thought-provoking post in your inbox:
https://www.intelligence-briefing.com/newsletter

  continue reading

62 επεισόδια

Artwork
iconΜοίρασέ το
 
Manage episode 378635955 series 3437240
Το περιεχόμενο παρέχεται από το Andreas Welsch. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Andreas Welsch ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

In this episode, Steve Wilson (Project Leader, OWASP Foundation) and Andreas Welsch discuss securing your Large Language Model against common vulnerabilities. Steve shares his findings from co-authoring the OWASP Top 10 on LLMs report and provides valuable advice for listeners looking to improve the security of their Generative AI enabled applications.
Key topics:
- What are the most important vulnerabilities of LLMs?
- What are developers underestimating about these security risks?
- How will these vulnerabilities be exploited?
- How can AI leaders and developers mitigate or prevent it?
Listen to the full episode and hear how you can:
- Balance innovation and security risks of new technologies like generative AI
- Understand the difference between direct and indirect prompt injections
- Prevent over-assigning agency to LLMs
- Establish trust boundaries and treat LLM-generated output as untrusted
Watch this episode on YouTube:
https://youtu.be/TpIowNnAcj4

Questions or suggestions? Send me a Text Message.

Support the Show.

***********
Disclaimer: Views are the participants’ own and do not represent those of any participant’s past, present, or future employers. Participation in this event is independent of any potential business relationship (past, present, or future) between the participants or between their employers.

Level up your AI Leadership game with the AI Leadership Handbook:
https://www.aileadershiphandbook.com
More details:
https://www.intelligence-briefing.com
All episodes:
https://www.intelligence-briefing.com/podcast
Get a weekly thought-provoking post in your inbox:
https://www.intelligence-briefing.com/newsletter

  continue reading

62 επεισόδια

Όλα τα επεισόδια

×
 
Loading …

Καλώς ήλθατε στο Player FM!

Το FM Player σαρώνει τον ιστό για podcasts υψηλής ποιότητας για να απολαύσετε αυτή τη στιγμή. Είναι η καλύτερη εφαρμογή podcast και λειτουργεί σε Android, iPhone και στον ιστό. Εγγραφή για συγχρονισμό συνδρομών σε όλες τις συσκευές.

 

Οδηγός γρήγορης αναφοράς