Artwork

Το περιεχόμενο παρέχεται από το TED. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον TED ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.
Player FM - Εφαρμογή podcast
Πηγαίνετε εκτός σύνδεσης με την εφαρμογή Player FM !

Wie man menschliche Vorurteile von der künstlichen Intelligenz fernhält | Kriti Sharma

12:10
 
Μοίρασέ το
 

Manage episode 273186068 series 125927
Το περιεχόμενο παρέχεται από το TED. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον TED ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.
Algorithmen der künstlichen Intelligenz treffen ständig wichtige Entscheidungen über Sie -- zum Beispiel wie viel Sie für eine Autoversicherung zahlen sollten oder ob Sie wohl zu dem Job-Interview eingeladen werden. Aber was passiert, wenn diese Maschinen menschliche Vorurteile in ihrem System kodiert haben? Die Technologin Kriti Sharma untersucht, wie das Fehlen von Diversität in der Technologie sich in unsere künstliche Intelligenz schleicht und gibt drei Vorschläge, wie wir anfangen können ethische Algorithmen zu entwerfen.
  continue reading

67 επεισόδια

Artwork
iconΜοίρασέ το
 
Manage episode 273186068 series 125927
Το περιεχόμενο παρέχεται από το TED. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον TED ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.
Algorithmen der künstlichen Intelligenz treffen ständig wichtige Entscheidungen über Sie -- zum Beispiel wie viel Sie für eine Autoversicherung zahlen sollten oder ob Sie wohl zu dem Job-Interview eingeladen werden. Aber was passiert, wenn diese Maschinen menschliche Vorurteile in ihrem System kodiert haben? Die Technologin Kriti Sharma untersucht, wie das Fehlen von Diversität in der Technologie sich in unsere künstliche Intelligenz schleicht und gibt drei Vorschläge, wie wir anfangen können ethische Algorithmen zu entwerfen.
  continue reading

67 επεισόδια

Όλα τα επεισόδια

×
 
Loading …

Καλώς ήλθατε στο Player FM!

Το FM Player σαρώνει τον ιστό για podcasts υψηλής ποιότητας για να απολαύσετε αυτή τη στιγμή. Είναι η καλύτερη εφαρμογή podcast και λειτουργεί σε Android, iPhone και στον ιστό. Εγγραφή για συγχρονισμό συνδρομών σε όλες τις συσκευές.

 

Οδηγός γρήγορης αναφοράς