Artwork

Το περιεχόμενο παρέχεται από το Carnegie Mellon University Software Engineering Institute and SEI Members of Technical Staff. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Carnegie Mellon University Software Engineering Institute and SEI Members of Technical Staff ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.
Player FM - Εφαρμογή podcast
Πηγαίνετε εκτός σύνδεσης με την εφαρμογή Player FM !

An Introduction to the MLOps Tool Evaluation Rubric

1:00:23
 
Μοίρασέ το
 

Manage episode 489496433 series 1264075
Το περιεχόμενο παρέχεται από το Carnegie Mellon University Software Engineering Institute and SEI Members of Technical Staff. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Carnegie Mellon University Software Engineering Institute and SEI Members of Technical Staff ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

Organizations looking to build and adopt artificial intelligence (AI)–enabled systems face the challenge of identifying the right capabilities and tools to support Machine Learning Operations (MLOps) pipelines. Navigating the wide range of available tools can be especially difficult for organizations new to AI or those that have not yet deployed systems at scale. This webcast introduces the MLOps Tool Evaluation Rubric, designed to help acquisition teams pinpoint organizational priorities for MLOps tooling, customize rubrics to evaluate those key capabilities, and ultimately select tools that will effectively support ML developers and systems throughout the entire lifecycle, from exploratory data analysis to model deployment and monitoring. This webcast will walk viewers through the rubric's design and content, share lessons learned from applying the rubric in practice, and conclude with a brief demo.

What Attendees Will Learn:

• How to identify and prioritize key capabilities for MLOps tooling within their organizations

• How to customize and apply the MLOps Tool Evaluation Rubric to evaluate potential tools effectively

• Best practices and lessons learned from real-world use of the rubric in AI projects

  continue reading

174 επεισόδια

Artwork
iconΜοίρασέ το
 
Manage episode 489496433 series 1264075
Το περιεχόμενο παρέχεται από το Carnegie Mellon University Software Engineering Institute and SEI Members of Technical Staff. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Carnegie Mellon University Software Engineering Institute and SEI Members of Technical Staff ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

Organizations looking to build and adopt artificial intelligence (AI)–enabled systems face the challenge of identifying the right capabilities and tools to support Machine Learning Operations (MLOps) pipelines. Navigating the wide range of available tools can be especially difficult for organizations new to AI or those that have not yet deployed systems at scale. This webcast introduces the MLOps Tool Evaluation Rubric, designed to help acquisition teams pinpoint organizational priorities for MLOps tooling, customize rubrics to evaluate those key capabilities, and ultimately select tools that will effectively support ML developers and systems throughout the entire lifecycle, from exploratory data analysis to model deployment and monitoring. This webcast will walk viewers through the rubric's design and content, share lessons learned from applying the rubric in practice, and conclude with a brief demo.

What Attendees Will Learn:

• How to identify and prioritize key capabilities for MLOps tooling within their organizations

• How to customize and apply the MLOps Tool Evaluation Rubric to evaluate potential tools effectively

• Best practices and lessons learned from real-world use of the rubric in AI projects

  continue reading

174 επεισόδια

Όλα τα επεισόδια

×
 
Loading …

Καλώς ήλθατε στο Player FM!

Το FM Player σαρώνει τον ιστό για podcasts υψηλής ποιότητας για να απολαύσετε αυτή τη στιγμή. Είναι η καλύτερη εφαρμογή podcast και λειτουργεί σε Android, iPhone και στον ιστό. Εγγραφή για συγχρονισμό συνδρομών σε όλες τις συσκευές.

 

Οδηγός γρήγορης αναφοράς

Ακούστε αυτήν την εκπομπή ενώ εξερευνάτε
Αναπαραγωγή