Το Machine Learning (AM) διαμορφώνει το δικό του όνομα, με αυξανόμενη αναγνώριση που δείχνει ότι η AM μπορεί να διαδραματίσει σημαντικό ρόλο σε ένα ευρύ φάσμα κρίσιμων εφαρμογών όπως η εξόρυξη δεδομένων, η επεξεργασία φυσικής γλώσσας, η εικόνα και τα συστήματα ειδικών. Η AM παρέχει πιθανές λύσεις σε όλους αυτούς τους τομείς και άλλα. Δημιουργήθηκε επίσης για να είναι ένας πυλώνας του μελλοντικού μας πολιτισμού.
Το συμπλήρωμα του σχεδιαστές με δεξιότητα AM δεν έχει ακόμη ζήτηση. Ένα μεγάλο μέρος αυτού οφείλεται στο γεγονός ότι το AM είναι πολύ περίπλοκο. Αυτό το σεμινάριο παρουσιάζει τα βασικά της θεωρίας Μηχανικής Μάθησης, εξηγώντας κοινά θέματα και έννοιες που διευκολύνουν την παρακολούθηση της λογικής και την άνεση με το θέμα.
Λοιπόν, τι ακριβώς είναι το 'Machine Learning'; Η ΑΜ είναι πράγματι Πολλά υλικό. Το πεδίο είναι πολύ απέραντο και επεκτείνεται ταχύτατα και συνεχώς διαμερίζεται και υποδιαιρείται αδιάκοπα, σε υπο-ειδικότητες και τύποι μηχανικής μάθησης .
Ωστόσο, υπάρχει ένας βασικός κοινός παρονομαστής και το κυρίαρχο θέμα συνοψίζεται καλύτερα από αυτήν τη συχνά αναφερόμενη δήλωση, που έκανε ο Arthur Samuel το 1959: '[Η μηχανική μάθηση είναι το] πεδίο σπουδών που δίνει στους υπολογιστές τη δυνατότητα να μάθουν χωρίς να προγραμματίζονται ρητά.'
Και πιο πρόσφατα, το 1997, Τομ Μίτσελ έδωσε έναν 'καλά μελετημένο' ορισμό που έχει αποδειχθεί πιο χρήσιμος για τους τύπους μηχανικής: 'Λέγεται ότι ένα πρόγραμμα υπολογιστή μαθαίνει από την εμπειρία E, σε σχέση με κάποια εργασία T και κάποιο μέτρο απόδοσης P, βελτιώνεται με την εμπειρία E.'
'Λέγεται ότι ένα πρόγραμμα υπολογιστή μαθαίνει από την εμπειρία E, σε σχέση με κάποια εργασία T και κάποιο μέτρο απόδοσης P, βελτιώνεται με την εμπειρία E, εάν η απόδοσή του στο T, όπως μετριέται με το P, βελτιώνεται με την εμπειρία E.' - Tom Mitchell, Πανεπιστήμιο Carnegie MellonΕπομένως, εάν θέλετε το πρόγραμμά σας να προβλέψει, για παράδειγμα, μοτίβα κυκλοφορίας σε μια πολυσύχναστη διασταύρωση (δοκιμή T), μπορείτε να το βγάλετε χρησιμοποιώντας έναν αλγόριθμο μηχανικής εκμάθησης, με δεδομένα για παλιά μοτίβα κυκλοφορίας (εμπειρία Ε) και, εάν ναι έχει «μάθει» με επιτυχία, θα κάνει καλύτερη δουλειά για την πρόβλεψη μελλοντικών μοτίβων κυκλοφορίας (Performance Measure P).
Η εξαιρετικά περίπλοκη φύση πολλών προβλημάτων στην πραγματική ζωή σημαίνει συνήθως ότι η εφεύρεση εξειδικευμένων αλγορίθμων που θα τα λύνονταν τέλεια κάθε φορά είναι πρακτική και ακόμη και αδύνατη. Μερικά παραδείγματα προβλημάτων μηχανικής μάθησης περιλαμβάνουν, 'Είναι καρκίνος;' , 'Ποια είναι η αγοραία αξία αυτού του σπιτιού;' , 'Ποιοι από αυτούς τους ανθρώπους είναι καλοί φίλοι;' , 'Θα εκραγεί αυτός ο πυραυλοκινητήρας κατά την απογείωση;' , 'Θα αρέσει σε αυτό το άτομο αυτή η ταινία;' , 'Ποιος είναι;' , 'Τι είπες?' Γ 'Πώς πετάς αυτό;' . Όλα αυτά τα προβλήματα αποτελούν εξαιρετική εστίαση για ένα έργο AM, και πράγματι το AM έχει εφαρμοστεί σε καθένα με μεγάλη επιτυχία.
Η AM λύνει προβλήματα που δεν μπορούν να επιλυθούν μόνο με αριθμητικά μέσα.Μεταξύ των διαφορετικών τύπων εργασιών ΑΜ, γίνεται μια κρίσιμη διάκριση μεταξύ εποπτευόμενης και μη εποπτευόμενης μάθησης:
Θα επικεντρωθούμε πρώτα στην εποπτευόμενη μάθηση, αλλά το τέλος του άρθρου περιλαμβάνει μια σύντομη συζήτηση για τη μη εποπτευόμενη μάθηση, με κάποιους συνδέσμους για όσους ενδιαφέρονται να συνεχίσουν στο θέμα.
Για τις περισσότερες εποπτευόμενες εφαρμογές μάθησης, θέλετε να επιτύχετε μια καλά συντονισμένη λειτουργία πρόβλεψης h(x)
(μερικές φορές ονομάζεται «υπόθεση»). Η «εκμάθηση» συνίσταται στη χρήση μαθηματικών αλγορίθμων για τη βελτιστοποίηση αυτής της λειτουργίας έτσι ώστε, δίνοντάς της δεδομένα x
πάνω από έναν συγκεκριμένο τομέα (ας πούμε, τετραγωνικά πόδια ενός σπιτιού), θα κάνει μια ακριβή πρόβλεψη μιας ενδιαφέρουσας τιμής h(x)
(ας πούμε, τιμή αγοράς για το εν λόγω σπίτι).
Στην πράξη, x
σχεδόν πάντα αντιπροσωπεύει πολλά σημεία δεδομένων. Έτσι, για παράδειγμα, ένας προγνώστης τιμής σπιτιού μπορεί να διαρκεί όχι μόνο τετραγωνικά πλάνα (x1
) αλλά και αριθμός υπνοδωματίων (x2
), αριθμός μπάνιου (x3
), αριθμός ορόφων (x4)
, έτη κατασκευής (x5
), ταχυδρομικός κώδικας (x6
) και ούτω καθεξής. Ο καθορισμός των εισόδων που θα χρησιμοποιήσετε είναι σημαντικό μέρος του σχεδιασμού AM. Λοιπόν από την εξήγηση , είναι ευκολότερο να υποθέσουμε ότι χρησιμοποιείται μόνο μία τιμή εισόδου.
Ας πούμε ότι ο απλός πρόβλεπός μας έχει αυτήν τη μορφή:
που Υ
είναι σταθερές. Στόχος μας είναι να βρούμε τις τέλειες τιμές
Υ
κάνουμε το πρόγραμμα προβλέψεων να λειτουργεί όσο το δυνατόν καλύτερα.
Βελτιστοποίηση του προγνώστη h(x)
δεν χρησιμοποιείται πλέον παράδειγμα εκπαίδευσης . Για κάθε παράδειγμα εκπαίδευσης, έχουμε μια τιμή εισόδου x_train
, με την οποία ήταν γνωστή μια αντίστοιχη έξοδος, y
. Για κάθε παράδειγμα, βρίσκουμε τη διαφορά μεταξύ της γνωστής σωστής τιμής y
και της προβλεπόμενης τιμής h(x_train)
. Με αρκετά παραδείγματα εκπαίδευσης, αυτές οι διαφορές μας δίνουν έναν χρήσιμο τρόπο για να μετρήσουμε το 'λάθος' του h(x)
. Τότε μπορούμε να τροποποιήσουμε λίγο h(x)
αλλάζοντας τις τιμές του Υ
για να το κάνουμε 'λιγότερο λάθος.' Αυτή η διαδικασία επαναλαμβάνεται ξανά και ξανά έως ότου το σύστημα ταιριάξει με τις καλύτερες τιμές
Υ
. Με αυτόν τον τρόπο, ο προγνώστης είναι εκπαιδευμένος και έτοιμος να κάνει πραγματικές προβλέψεις.
Σε αυτήν την ανάρτηση, διατηρούμε τα προβλήματα απλά για λόγους απεικόνισης, αλλά ο λόγος που υπάρχει το AM είναι επειδή, στην πραγματική ζωή, τα προβλήματα είναι πολύ πιο περίπλοκα. Σε αυτήν την επίπεδη οθόνη μπορούμε να σχεδιάσουμε το μέγιστο ένα σύνολο τρισδιάστατων δεδομένων, αλλά τα προβλήματα AM αντιμετωπίζουν συνήθως δεδομένα με εκατομμύρια διαστάσεις και πολύ περίπλοκες λειτουργίες πρόβλεψης. Η AM λύνει προβλήματα που δεν μπορούν να επιλυθούν μόνο με αριθμητικά μέσα.
Έχοντας αυτό κατά νου, ας δούμε ένα απλό παράδειγμα. Ας υποθέσουμε ότι έχουμε τα ακόλουθα δεδομένα εκπαίδευσης, όπου οι υπάλληλοι της εταιρείας έχουν αξιολογήσει την ικανοποίησή τους σε κλίμακα από 1 έως 100:
Πρώτον, μπορείτε να δείτε ότι τα δεδομένα είναι κάπως θορυβώδη. Αυτό συμβαίνει επειδή παρόλο που μπορούμε να δούμε ότι υπάρχει ένα μοτίβο (η ικανοποίηση των εργαζομένων τείνει να αυξάνεται καθώς αυξάνεται η αμοιβή), δεν ταιριάζουν όλα σε μια ευθεία γραμμή. Αυτό ισχύει πάντα με πραγματικά δεδομένα (και σίγουρα θέλουμε να εκπαιδεύσουμε τον υπολογιστή μας με πραγματικά δεδομένα!). Πώς μπορούμε λοιπόν να εκπαιδεύσουμε μια μηχανή για να προβλέψουμε τέλεια το επίπεδο ικανοποίησης ενός υπαλλήλου; Η αλήθεια είναι ότι δεν μπορούμε. Ο στόχος της MA δεν είναι να μαντέψουμε 'τέλεια', επειδή η MA ασχολείται με τομείς όπου δεν υπάρχει κάτι τέτοιο. Ο στόχος είναι να κάνουμε προβλέψεις που είναι αρκετά καλές για να είναι χρήσιμες.
Εδώ μπορούμε να θυμηθούμε τη διάσημη δήλωση του Βρετανού Μαθηματικού και Καθηγητή Στατιστικής George E. P. Box που λέει 'όλα τα μοντέλα είναι λάθος, αλλά μερικά είναι χρήσιμα.'
Ο στόχος της MA δεν είναι να μαντέψουμε 'τέλεια', επειδή η MA ασχολείται με τομείς όπου δεν υπάρχει κάτι τέτοιο. Ο στόχος είναι να κάνουμε προβλέψεις που είναι αρκετά καλές για να είναι χρήσιμες.Το AM βασίζεται σε μεγάλο βαθμό στα στατιστικά. Για παράδειγμα, όταν εκπαιδεύουμε τη μηχανή μας για να μάθουμε, πρέπει να της δώσουμε ένα στατιστικά σημαντικό τυχαίο δείγμα ως δεδομένα εκπαίδευσης. Εάν το σετ προπόνησης δεν είναι τυχαίο, υπάρχει πιθανότητα το μηχάνημα να μάθει μοτίβα που δεν υπάρχουν στην πραγματικότητα στο δείγμα. Και αν το σετ προπόνησης είναι πολύ μικρό (διαβάστε ο νόμος των μεγάλων αριθμών ), δεν θα γνωρίζουμε πολλά και ενδέχεται να έχουμε ασαφή αποτελέσματα. Για παράδειγμα, αν προσπαθήσαμε να προβλέψουμε μοτίβα ικανοποίησης μιας ολόκληρης εταιρείας συλλέγοντας δεδομένα μόνο από διαχειριστές, πιθανότατα θα έχουμε πολλά λάθη.
Γνωρίζοντας αυτό, τώρα θα δώσουμε στον υπολογιστή μας τα δεδομένα που μας δώσατε παραπάνω για να μάθουμε. Πρώτα πρέπει να προετοιμάσουμε την πρόβλεψή μας h(x)
με εύλογες αξίες και
. Τώρα η πρόβλεψή μας θα μοιάζει με αυτό όταν στο σετ προπόνησης:
προσομοίωση monte carlo για ανδρείκελα
Εάν ρωτήσαμε αυτόν τον προγνωστικό παράγοντα για την ικανοποίηση ενός υπαλλήλου που κερδίζει 60.000 $, θα δείξει έναν δείκτη 27:
Προφανώς μπορείτε να δείτε ότι πρόκειται για πολύ κακή πρόβλεψη και αυτό το μηχάνημα δεν γνωρίζει ακόμη πολλά.
Τώρα ας δώσουμε αυτόν τον προγνωστικό παράγοντα όλοι τους μισθούς του εκπαιδευτικού συνόλου μας, τότε θα συγκρίνουμε τις διαφορές μεταξύ των προβλεπόμενων αποτελεσμάτων ικανοποίησης και των πραγματικών ποσοστών ικανοποίησης των αντίστοιχων υπαλλήλων. Εάν κάνουμε λίγο μαθηματική μαγεία (την οποία θα εξηγήσω στη συνέχεια) μπορούμε να υπολογίσουμε, με μεγάλη βεβαιότητα, τις τιμές του 13.12 και 0,61 για
θα μας έδινε καλύτερη πρόβλεψη.
Εάν επαναλάβουμε αυτήν τη διαδικασία, ας πούμε περίπου 1500 φορές, η πρόβλεψή μας θα καταλήξει να μοιάζει με αυτό:
Σε αυτό το σημείο εάν επαναλάβουμε τη διαδικασία θα το βρούμε Υ
δεν υπάρχει αλλαγή οποιουδήποτε εκτιμώμενου ποσού και έτσι βλέπουμε ότι το σύστημα έχει συγκλίνει. Εάν δεν κάνουμε λάθος, αυτό σημαίνει ότι βρήκαμε τον βέλτιστο προγνωστικό παράγοντα. Τώρα αν ρωτήσουμε ξανά το μηχάνημα για το ποσοστό ικανοποίησης του υπαλλήλου που κερδίζει 60.000 $, θα κάνει μια πρόβλεψη για ένα ποσοστό συν ή μείον 60.
Τώρα πηγαίνουμε κάπου.
Το παραπάνω παράδειγμα είναι τεχνικά ένα απλό πρόβλημα univariate γραμμική παλινδρόμηση , το οποίο μπορεί να λυθεί με τη δημιουργία μιας απλής εξίσωσης και παρακάμπτοντας έτσι ολόκληρη τη διαδικασία «συντονισμού». Ακόμα σκεφτείτε για μια στιγμή ενός προγνωστικού που μοιάζει με αυτό:
Αυτή η συνάρτηση λαμβάνει τετραδιάστατα δεδομένα εισόδου και έχει μια ποικιλία πολυωνυμικών όρων. Η εξαγωγή μιας κανονικής εξίσωσης για αυτήν τη συνάρτηση είναι μια μεγάλη πρόκληση. Πολλά σύγχρονα προβλήματα μηχανικής μάθησης λαμβάνουν υπόψη χιλιάδες ακόμη και εκατομμύρια διαστάσεις δεδομένων για τη δημιουργία προβλέψεων χρησιμοποιώντας εκατοντάδες συντελεστές. Η πρόβλεψη για το πώς θα εκφραστεί το γονιδίωμα ενός οργανισμού ή πώς θα είναι το κλίμα σε 50 χρόνια είναι μερικά παραδείγματα αυτών των πολύπλοκων προβλημάτων.
Πολλά σύγχρονα προβλήματα AM λαμβάνουν υπόψη χιλιάδες ακόμη και εκατομμύρια διαστάσεις δεδομένων για τη δημιουργία προβλέψεων χρησιμοποιώντας εκατοντάδες συντελεστές.Ευτυχώς, η επαναληπτική προσέγγιση που ακολουθούν τα συστήματα AM είναι πολύ πιο ανθεκτική όταν πρόκειται για τέτοιες πολυπλοκότητες. Αντί να χρησιμοποιεί ωμή δύναμη, ένα σύστημα μηχανικής εκμάθησης «αισθάνεται τα πάντα» μέχρι να βρει την απάντηση. Για μεγάλα προβλήματα αυτό λειτουργεί πολύ καλύτερα. Αν και αυτό δεν σημαίνει ότι η AM μπορεί να λύσει οποιοδήποτε αυθαίρετο σύνθετο πρόβλημα (δεν μπορεί), αυτό σημαίνει ότι είναι ένα πολύ αποτελεσματικό και ευέλικτο εργαλείο.
Ας ρίξουμε μια πιο προσεκτική ματιά στον τρόπο λειτουργίας αυτής της επαναληπτικής διαδικασίας. Στο παραπάνω παράδειγμα, πώς το διασφαλίζουμε αυτό Υ
Βελτιώνουν και δεν χειροτερεύουν; Η απάντηση βρίσκεται στη «μέτρηση του σφάλματος», την οποία έχουμε ήδη αναφέρει, μαζί με έναν μικρό υπολογισμό.
Η μέτρηση σφάλματος ορίζεται ως συνάρτηση κόστους (δηλαδή, λειτουργία απώλειας ), . Η είσοδος
αντιπροσωπεύει όλους τους συντελεστές που χρησιμοποιούμε στον προβλεπόμενο. Σε αυτήν την περίπτωση,
είναι στην πραγματικότητα το ζευγάρι
Υ
.
Αυτό μας δίνει ένα μαθηματικό μέτρο για το πόσο λάθος είναι η πρόβλεψή μας όταν χρησιμοποιούμε τις δεδομένες τιμές του
Υ
.
Η επιλογή συνάρτησης κόστους είναι ένα άλλο σημαντικό κομμάτι ενός προγράμματος AM. Σε διαφορετικά πλαίσια, το 'να κάνεις λάθος' μπορεί να σημαίνει διαφορετικά πράγματα. Στο παράδειγμα της ικανοποίησης των εργαζομένων, το καθιερωμένο πρότυπο είναι το λειτουργία τετραγώνων :
Με λιγότερα τετράγωνα, η ποινή για μια κακή εικασία αυξάνεται τετραγωνικά μεταξύ της εικασίας και της σωστής απάντησης, ενεργώντας έτσι ως ένα πολύ «αυστηρό» μέτρο σφάλματος. Η συνάρτηση κόστους αποθηκεύει μια μέση ποινή για όλα τα παραδείγματα εκπαίδευσης.
Στόχος μας είναι να βρούμε Υ
για την πρόβλεψή μας
h(x)
και ότι το κόστος μας λειτουργεί να είναι όσο το δυνατόν μικρότερο. Για να το επιτύχουμε, στρέφουμε τη δύναμη του υπολογισμού.
Εξετάστε το παρακάτω γράφημα μιας συνάρτησης κόστους για ένα συγκεκριμένο πρόβλημα AM:
Εδώ μπορούμε να δούμε το κόστος που σχετίζεται με τις τιμές του Υ
. Μπορούμε να δούμε ότι το γράφημα έχει ένα ελαφρύ σχήμα μπολ. Το κάτω μέρος του μπολ αντιπροσωπεύει το χαμηλότερο κόστος που μπορεί να υπολογίσει η πρόβλεψή μας με βάση τα δεδομένα εκπαίδευσης που παρέχονται. Ο στόχος είναι να «κατεβείτε στο λόφο» και να βρείτε
Υ
αντιστοιχεί σε αυτό το σημείο.
Εδώ μπαίνει το λογισμό σε αυτό το σεμινάριο μηχανικής μάθησης. Για να κρατήσω την εξήγηση απλή, δεν πρόκειται να γράψω τις εξισώσεις, αλλά βασικά αυτό που κάνουμε είναι να πάρουμε την κλίση , το οποίο είναι το ζεύγος παραγώγων του
(ένα σε
και ένα για
). Η κλίση θα είναι διαφορετική για κάθε διαφορετική τιμή του
Υ
, και μας λέει τι είναι 'η πλαγιά του λόφου' και συγκεκριμένα, 'όπου είναι κάτω', για αυτό το συγκεκριμένο
μικρό. Για παράδειγμα, όταν εισάγουμε τις τρέχουσες τιμές μας για
στην κλίση, θα μπορούσατε να μας πείτε να προσθέσουμε λίγο
και αφαιρώντας λίγο
θα μας οδηγήσει στην κατεύθυνση του δαπέδου της συνάρτησης κόστους. Προσθέτουμε λοιπόν λίγο
, και αφαιρούμε λίγο από
και voilà! Ολοκληρώσαμε ένα μέρος του αλγορίθμου μάθησης. Η ενημερωμένη πρόβλεψή μας, h (x) =
+
x, θα μας δώσει καλύτερες προβλέψεις από πριν. Το μηχάνημά μας είναι λίγο πιο έξυπνο τώρα.
Αυτή η διαδικασία εναλλαγής μεταξύ του υπολογισμού της τρέχουσας κλίσης και της ενημέρωσης του Τα αποτελέσματα είναι γνωστά ως κλίση κατάβασης ή κλίση κατάβασης .
Η sephora πουλά καλλυντικά και προϊόντα ομορφιάς σε καταστήματα και μέσω του sephora.com. αυτό δείχνει
Αυτό περιλαμβάνει τη βασική βασική θεωρία που αντιπροσωπεύουν τα περισσότερα εποπτευόμενα συστήματα Μηχανικής Μάθησης. Αλλά τα βασικά μπορούν να χρησιμοποιηθούν με διαφορετικούς τρόπους ανάλογα με το πρόβλημα.
Από την εποπτευόμενη MA, υπάρχουν δύο σημαντικές υποκατηγορίες:
Και αποδεικνύεται ότι η υποκείμενη θεωρία είναι λίγο πολύ η ίδια. Οι μεγαλύτερες διαφορές είναι ο σχεδιασμός της πρόβλεψης h(x)
και ο σχεδιασμός της συνάρτησης κόστους .
Τα παραδείγματα μας μέχρι τώρα επικεντρώθηκαν σε προβλήματα παλινδρόμησης, οπότε τώρα ας δούμε ένα παράδειγμα ταξινόμησης.
Ακολουθούν τα αποτελέσματα μιας μελέτης μιας δοκιμής ποιότητας cookie, στην οποία τα παραδείγματα εκπαίδευσης χαρακτηρίστηκαν ως 'καλό cookie' (y = 1
) με μπλε ή 'κακό cookie' (y = 0
) με κόκκινο χρώμα.
Στην ταξινόμηση, μια πρόβλεψη παλινδρόμησης δεν είναι πολύ χρήσιμη. Συνήθως αυτό που θέλουμε είναι ένας προγνωστικός παράγοντας που κάνει μια υπόθεση μεταξύ 0 και 1. Σε μια βαθμολογία ποιότητας cookie, μια πρόβλεψη 1 θα αντιπροσωπεύει μια πολύ σίγουρη υπόθεση ότι το cookie είναι εξαιρετικό και εξαιρετικά νόστιμο. Η πρόβλεψη του 0 αντιπροσωπεύει μεγάλη εμπιστοσύνη ότι το cookie αποτελεί αμηχανία για τη βιομηχανία cookie. Οι τιμές σε αυτό το εύρος αντιπροσωπεύουν λιγότερη βεβαιότητα, οπότε θα μπορούσαμε να σχεδιάσουμε το σύστημά μας έτσι ώστε μια πρόβλεψη 0,6 να σημαίνει 'Έι, είναι μια δύσκολη κλήση, αλλά θα πω ναι, μπορείτε να πουλήσετε αυτό το cookie', ενώ μια τιμή ακριβώς στο η μέση, 0,5, θα μπορούσε να αντιπροσωπεύει απόλυτη αβεβαιότητα. Αυτός δεν είναι πάντα ο τρόπος που αποδίδεται η εμπιστοσύνη σε έναν ταξινομητή, αλλά είναι ένας αρκετά κοινός σχεδιασμός και λειτουργεί για να εξηγήσει την εικόνα μας.
Υπάρχει μια ωραία λειτουργία που αποτυπώνει αυτήν τη συμπεριφορά πολύ καλά. Ονομάζεται λειτουργία σιγμοειδούς , g(z)
, και μοιάζει με αυτό:
z
είναι μια αναπαράσταση των δεδομένων εισαγωγής και των συντελεστών μας, όπως:
παραβιασμένοι αριθμοί πιστωτικών καρτών cvv
Έτσι, η πρόβλεψή μας γίνεται:
Μπορείτε να δείτε ότι η συνάρτηση σιγμοειδούς μετατρέπει την έξοδο μας σε εύρος μεταξύ 0 και 1.
Η λογική σχεδιασμού της συνάρτησης κόστους είναι επίσης διαφορετική στην ταξινόμηση. Και πάλι ρωτάμε, τι σημαίνει ότι μια υπόθεση είναι λανθασμένη; Αυτή τη φορά ένας πολύ καλός κανόνας είναι ότι αν η σωστή εικασία είναι 0 και είπαμε 1, τότε κάναμε εντελώς λάθος και το αντίστροφο. Και επειδή δεν μπορείς να είσαι πιο λάθος από το λάθος, η ποινή σε αυτή την περίπτωση είναι τεράστια. Τώρα, εάν η σωστή υπόθεση ήταν 0 και είπαμε 0, η συνάρτηση κόστους δεν πρέπει να προσθέτει κόστος κάθε φορά που συμβαίνει αυτό. Εάν η υπόθεση είναι σωστή, αλλά δεν είμαστε απολύτως σίγουροι ότι είναι, (π.χ. y = 1
, αλλά h(x) = 0.8
), αυτό θα πρέπει να έχει ένα μικρό κόστος και εάν η υπόθεσή μας είναι λανθασμένη, αλλά δεν είμαστε σίγουροι για αυτό (π.χ. y = 1
αλλά h(x) = 0.3
), αυτό θα έπρεπε να έχει κάποιο σημαντικό κόστος, αλλά όχι τόσο σαν να κάναμε εντελώς λάθος.
Αυτή η συμπεριφορά καταγράφεται από τη λειτουργία καταγραφής έτσι ώστε:
Και πάλι, η συνάρτηση κόστους μας δίνει ένα μέσο κόστος για όλα τα εκπαιδευτικά μας παραδείγματα.
Και λοιπόν εδώ περιγράφουμε πώς η πρόβλεψη h(x)
και τη συνάρτηση κόστους Διαφέρουν ως προς την παλινδρόμηση και την ταξινόμηση, αλλά η κλίση της κλίσης εξακολουθεί να λειτουργεί το ίδιο.
Ένας προγνωστής ταξινόμησης μπορεί να απεικονιστεί σχεδιάζοντας τη γραμμή ορίου. π.χ. το εμπόδιο όπου η πρόβλεψη αλλάζει από 'ναι' (πρόβλεψη μεγαλύτερη από 0,5) σε 'όχι' (πρόβλεψη μικρότερη από 0,5). Με ένα καλά σχεδιασμένο σύστημα, τα δεδομένα cookie μπορούν να δημιουργήσουν ένα περίγραμμα που μοιάζει με αυτό:
Τώρα αυτό είναι ένα μηχάνημα που γνωρίζει ένα ή δύο πράγματα για τα cookies!
Καμία συζήτηση για το AM δεν θα ήταν πλήρης χωρίς τουλάχιστον να αναφερθεί το νευρωνικά δίκτυα . Αυτά όχι μόνο προσφέρουν ένα εξαιρετικά ισχυρό εργαλείο για την επίλυση δύσκολων προβλημάτων, αλλά προσφέρουν επίσης ενδείξεις για τον τρόπο λειτουργίας του εγκεφάλου μας, καθώς και ενδιαφέρουσες δυνατότητες για μια μέρα δημιουργίας έξυπνων μηχανών.
Τα νευρικά δίκτυα είναι ιδανικά για προβλήματα μηχανικής μάθησης όπου οι εισόδους είναι τεράστιες. Το υπολογιστικό κόστος του χειρισμού τέτοιων προβλημάτων είναι πολύ συντριπτικό για τους τύπους συστημάτων που έχουμε συζητήσει παραπάνω. Αλλά αποδεικνύεται ότι τα νευρικά δίκτυα μπορούν να συντονιστούν αποτελεσματικά χρησιμοποιώντας τεχνικές που μοιάζουν εντυπωσιακά με την κατάβαση κλίσης κατ 'αρχήν.
Μια ρητή συζήτηση για τα νευρικά δίκτυα υπερβαίνει τις πληροφορίες σε αυτό το άρθρο, αλλά προτείνω να ρίξετε μια ματιά στο δικό μας προηγούμενη ανάρτηση που ασχολείται με το θέμα.
Η μη εποπτευόμενη μάθηση συνήθως ανατίθεται για την εύρεση σχέσεων μεταξύ δεδομένων. Δεν υπάρχουν παραδείγματα εκπαίδευσης που χρησιμοποιούνται σε αυτήν τη διαδικασία. Αντ 'αυτού, στο σύστημα δίνεται ένα σύνολο δεδομένων και του ανατίθεται το έργο της αναζήτησης μοτίβων και συσχετίσεων μέσα σε αυτό. Ένα καλό παράδειγμα είναι ο προσδιορισμός ομάδων στενών φίλων σε δεδομένα κοινωνικών μέσων.
Οι αλγόριθμοι που χρησιμοποιούνται για να επιτευχθεί αυτό είναι πολύ διαφορετικοί από αυτούς που χρησιμοποιούνται για εποπτευόμενη μάθηση και το θέμα αξίζει το δικό του άρθρο. Ωστόσο, για κάτι εν τω μεταξύ, ρίξτε μια ματιά στο [αλγόριθμος ομαδοποίηση] (https://en.wikipedia.org/wiki/Cluster_analysis) όπως είναι k-μέσα , και επίσης ελέγξτε μείωση διαστάσεων συστήματα όπως ανάλυση βασικών συστατικών . Η [μεγάλη δημοσίευση δεδομένων] (https://www.toptal.com/big-data#hiring-guide) συζητά ορισμένα θέματα με περισσότερες λεπτομέρειες.
Έχουμε καλύψει το μεγαλύτερο μέρος της βασικής θεωρίας που βασίζεται στον τομέα της Μηχανικής Μάθησης, αλλά φυσικά δεν έχουμε σχεδόν γρατσουνίσει την επιφάνεια.
Λάβετε υπόψη ότι η εφαρμογή των θεωριών σε αυτήν την εισαγωγή σε πραγματικά παραδείγματα μηχανικής μάθησης απαιτεί μια βαθύτερη κατανόηση των θεμάτων που συζητούνται εδώ. Υπάρχουν πολλές λεπτότητες και εμπόδια στο AM και πολλοί τρόποι για να ξεφύγετε χάρη σε αυτό που φαίνεται να είναι μια λεπτή συντονισμένη μηχανή σκέψης. Σχεδόν κάθε μέρος της βασικής θεωρίας μπορεί να τροποποιηθεί ή να παιχτεί με πολλούς τρόπους και τα αποτελέσματα είναι συχνά συναρπαστικά. Πολλοί γίνονται νέοι τομείς σπουδών που αντιστοιχούν καλύτερα σε ένα συγκεκριμένο πρόβλημα.
Φυσικά, η Μηχανική Μάθηση είναι ένα απίστευτα ισχυρό εργαλείο. Στα επόμενα χρόνια, υπόσχεται να βοηθήσει στην επίλυση ορισμένων από τα πιο άμεσα προβλήματά μας, καθώς και στο άνοιγμα νέων κόσμων ευκαιριών. ο ζήτηση για μηχανικούς AM Θα συνεχίσει να μεγαλώνει και θα προσφέρει απίστευτες ευκαιρίες για να γίνετε μέρος σε κάτι ξεχωριστό. Ελπίζω να θεωρήσετε μέρος της δράσης!
Αυτό το άρθρο βασίζεται σε μεγάλο βαθμό στο υλικό που διδάχθηκε από τον καθηγητή του Στάνφορντ, το Δρ. Άντριου Νγκ μέσα στο δωρεάν ανοιχτό μάθημα μηχανικής εκμάθησης . Το μάθημα καλύπτει όλα όσα συζητάμε σε αυτό το άρθρο σε βάθος και παρέχει πολλές πρακτικές συμβουλές για τον επαγγελματία της ΑΜ. Συνιστώ ανεπιφύλακτα αυτό το μάθημα για όσους ενδιαφέρονται να εξερευνήσουν περαιτέρω αυτό το συναρπαστικό πεδίο.