Transferlernen

Transfer Learning (TL) ist ein Forschungsproblem in maschinelles Lernen (ML) Das konzentriert sich auf das Speichern von Wissen, das gewonnen wird, während ein Problem gelöst und auf ein anderes, aber verwandtes Problem angewendet wird.[1] Zum Beispiel erlangte Wissen beim Lernen zu erkenne Autos könnten sich bewerben, wenn sie versuchen, LKWs zu erkennen. Dieser Forschungsgebiet hat einen gewissen Verhältnis zur langen Geschichte der psychologischen Literatur zu Lerntransfer, obwohl die praktischen Beziehungen zwischen den beiden Feldern begrenzt sind. Aus praktischer Sicht hat die Wiederverwendung oder Übertragung von Informationen aus zuvor erlernten Aufgaben zum Erlernen neuer Aufgaben das Potenzial, die Stichprobeneffizienz von a erheblich zu verbessern Verstärkungslernen Agent.[2]

Geschichte

1976 veröffentlichten Stevo Bozinovski und Ante Fulgosi ein Papier, das explizit über das Transferlernen in der Schulung neuronaler Netzwerke geht.[3][4] Das Papier enthält ein mathematisches und geometrisches Modell des Transferlernens. Im Jahr 1981 wurde ein Bericht über die Anwendung des Transferlernens in der Schulung eines neuronalen Netzwerks in einem Datensatz von Bildern angegeben, die Buchstaben von Computerterminals darstellen. Sowohl positives als auch negatives Transferlernen wurde experimentell nachgewiesen.[5]

1993 veröffentlichte Lorien Pratt ein Papier zum Transfer in maschinelles LernenFormulierung des DBT-Algorithmus (diskriminierbarkeitsbasierter Transfer).[6]

1997 Pratt und Sebastian Thrun Gast bearbeitete eine Sonderausgabe von Maschinelles Lernen dem Transfer des Lernens gewidmet,[7] und bis 1998 war das Feld vorangetrieben, um aufzunehmen Multi-Task-Lernen,[8] zusammen mit einer formaleren Analyse seiner theoretischen Grundlagen.[9] Lernen zu lernen,[10] Herausgegeben von Thrun und Pratt, ist eine Übersicht über das Thema von 1998.

Transferlernen wurde auch in angewendet Kognitionswissenschaft, mit Pratt auch Gast bearbeitet eine Ausgabe von Verbindungswissenschaft zur Wiederverwendung neuronaler Netzwerke durch Übertragung im Jahr 1996.[11]

Andrew Ng sagte in seinem NIPS 2016 -Tutorial [12][13][14] Dieser TL wird der nächste Treiber des kommerziellen Erfolgs von ML danach sein überwachtes Lernen um die Bedeutung von tl hervorzuheben.

Definition

Die Definition des Transferlernens wird in Bezug auf Domänen und Aufgaben angegeben. Eine Domäne besteht aus einem Platz für Platz und ein Grenzwahrscheinlichkeitsverteilung , wo . Bei einer bestimmten Domäne, Eine Aufgabe besteht aus zwei Komponenten: einem Etikettenraum und eine objektive Vorhersagefunktion . Die Funktion wird verwendet, um das entsprechende Etikett vorherzusagen einer neuen Instanz . Diese Aufgabe, gekennzeichnet durch , wird aus den Trainingsdaten gelernt, die aus Paaren bestehen , wo und .[15]

Bei einer Quelldomäne und Lernaufgabe , eine Zieldomäne und Lernaufgabe , wo , oder , Transferlernen zielt darauf ab, das Lernen der Zielvorhersagefunktion zu verbessern in Verwenden des Wissens in und .[15]

Anwendungen

Algorithmen stehen zum Übertragungslernen in verfügbar Markov Logic Networks[16] und Bayes'sche Netzwerke.[17] Transferlernen wurde auch auf die Entdeckung von Krebsuntertypen angewendet,[18] Gebäudeauslastung,[19][20] Allgemeines Spiel spielen,[21] Textklassifizierung,[22][23] Ziffernerkennung,[24] medizinische Bildgebung und Spamfilterung.[25]

Im Jahr 2020 wurde festgestellt, dass aufgrund ihrer ähnlichen physischen Naturen das Transferlernen zwischen dem Transferlernen möglich ist elektromyografisch (EMG) Signale aus den Muskeln und Klassifizierung des Verhaltens von Elektroenzephalographisch (EEG) Gehirnwellen, von der Gestenerkennung Domäne zum Bereich der mentalen Zustandserkennung. Es wurde auch festgestellt, dass diese Beziehung umgekehrt funktioniert und zeigt, dass EEG ebenfalls zur Klassifizierung von EMG verwendet werden kann.[26] In den Experimenten wurde festgestellt, dass die Genauigkeit von Neuronale Netze und Faltungsnetzwerke wurden verbessert[27] Durch das Transferlernen in der ersten Epoche (vor jedem Lernen, dh im Vergleich zur Standard -Zufallsgewichtsverteilung) und der Asymptote (das Ende des Lernprozesses). Das heißt, Algorithmen werden durch Exposition gegenüber einem anderen Bereich verbessert. Darüber hinaus kann der Endbenutzer eines vorgebreiteten Modells die Struktur vollständig vernetzter Schichten ändern, um eine überlegene Leistung zu erzielen.[28]

Im Bereich des maschinellen Lernens auf Code,[29] Es wurde gezeigt, dass Transferlernen nützlich ist, um die Sicherheitslücken automatisch zu reparieren.[30]

Siehe auch

Verweise

  1. ^ West, Jeremy; Ventura, Dan; Warnick, Sean (2007). "Frühlingsforschungspräsentation: Eine theoretische Grundlage für den induktiven Transfer". Brigham Young University, College für physische und mathematische Wissenschaften. Archiviert von das Original am 2007-08-01. Abgerufen 2007-08-05.
  2. ^ George Karimpanal, Thommen; Bouffanais, Roland (2019). "Selbstorganisierende Karten für die Lagerung und den Übertragung von Wissen im Verstärkungslernen". Adaptives Verhalten. 27 (2): 111–126. Arxiv:1811.08318. doi:10.1177/1059712318818568. ISSN 1059-7123. S2CID 53774629.
  3. ^ Stevo. Bozinovski und Ante Fulgosi (1976). "Der Einfluss der Musterähnlichkeit und der Übertragung des Lernens beim Training einer Basis -Perzeptron B2." (Original in kroatischen) Proceedings of Symposium Informatica 3-121-5, Bled.
  4. ^ Stevo Bozinovski (2020) "Erinnerung an das erste Papier zum Übertragungslernen in neuronalen Netzwerken, 1976". Informatica 44: 291–302.
  5. ^ S. Bozinovski (1981). "Unterrichtsraum: Ein Repräsentationskonzept für die adaptive Musterklassifizierung." Technischer Bericht der Münzen, Universität von Massachusetts bei Amherst, Nr. 81-28 [Online verfügbar: UM-CS-1981-028.pdf]
  6. ^ Pratt, L. Y. (1993). "Diskriminierbarkeitsbasierte Übertragung zwischen neuronalen Netzwerken" (PDF). NIPS -Konferenz: Fortschritte in neuronalen Informationsverarbeitungssystemen 5. Morgan Kaufmann Publishers. S. 204–211.
  7. ^ Pratt, L. Y.; Thrun, Sebastian (Juli 1997). "Maschinelles Lernen - Sonderausgabe bei induktiven Übertragungen". link.springer.com. Springer. Abgerufen 2017-08-10.
  8. ^ Caruana, R., "Multitask Learning", S. 95-134 in Thrun & Pratt 2012
  9. ^ Baxter, J., "Theoretische Modelle des Lernens zu lernen", S. 71-95 Thrun & Pratt 2012
  10. ^ Thrun & Pratt 2012.
  11. ^ Pratt, L. (1996). "Sonderausgabe: Wiederverwendung neuronaler Netzwerke durch Übertragung". Verbindungswissenschaft. 8 (2). Abgerufen 2017-08-10.
  12. ^ NIPS 2016 Tutorial: "Muttern und Bolts of Building AI -Anwendungen mit Deep Learning" von Andrew Ng, archiviert vom Original am 2021-12-19, abgerufen 2019-12-28
  13. ^ "NIPS 2016 Zeitplan". nips.cc. Abgerufen 2019-12-28.
  14. ^ Muttern und Bolzen des Gebäudes von AI -Anwendungen mit Deep Learning, Dias
  15. ^ a b Lin, Yuan-Pin; Jung, Tzyy-Ping (27. Juni 2017). "Verbesserung der EEG-basierten Emotionsklassifizierung mit bedingtem Transferlernen". Grenzen der menschlichen Neurowissenschaft. 11: 334. doi:10.3389/fnhum.2017.00334. PMC 5486154. PMID 28701938. CC-BY icon.svg Material wurde aus dieser Quelle kopiert, die unter a erhältlich ist Creative Commons Attribution 4.0 Internationale Lizenz.
  16. ^ Mihalkova, Lilyana; Huynh, Tuyen; Mooney, Raymond J. (Juli 2007), "Zuordnung und Überarbeitung von Markov -Logiknetzwerken für die Übertragung" (PDF), Lernverfahren der 22. AAAI-Konferenz über künstliche Intelligenz (AAAI-2007), Vancouver, BC, S. 608–614, abgerufen 2007-08-05
  17. ^ Niculescu-Mizil, Alexandru; Caruana, Rich (21. bis 24. März 2007), "Induktiver Transfer für das Lernen von Bayes'schen Netzwerkstruktur" (PDF), Verfahren der elften Internationalen Konferenz über künstliche Intelligenz und Statistik (Aistats 2007), abgerufen 2007-08-05
  18. ^ Hajiramezanali, E. & Dadaneh, S. Z. & Karbalayghareh, A. & Zhou, Z. & Qian, X. Bayesian Multi-Domain-Lernen für Krebs-Subtyp-Entdeckung aus den Daten der nächsten Generation. 32. Konferenz über neuronale Informationsverarbeitungssysteme (Neurips 2018), Montréal, Kanada. Arxiv:1810.09433
  19. ^ Arief-Ang, I.B.; Salim, F.D.; Hamilton, M. (2017-11-08). DA-hoc: Semi-überprüfte Domänenanpassung für die Vorhersage der Raumbelegung unter Verwendung von CO2-Sensordaten. 4. ACM Internationale Konferenz über Systeme für energieeffiziente gebaute Umgebungen (Buildsys). Delft, Niederlande. S. 1–10. doi:10.1145/3137133.3137146. ISBN 978-1-4503-5544-5.
  20. ^ Arief-Ang, I.B.; Hamilton, M.; Salim, F.D. (2018-12-01). "Eine skalierbare Raumbelegungsvorhersage mit übertragbarer Zeitreihen -Zersetzung von CO2 -Sensordaten". ACM -Transaktionen in Sensornetzwerken. 14 (3–4): 21: 1–21: 28. doi:10.1145/3217214. S2CID 54066723.
  21. ^ Banerjee, Bikramjit und Peter Stone. "Allgemeines Spiellernen mit Wissenstransfer. "Ijcai. 2007.
  22. ^ Do, Chuong b.; NG, Andrew Y. (2005). "Übertragungslernen für die Textklassifizierung". NEURAL Information Processing Systems Foundation, NIPS*2005 (PDF). Abgerufen 2007-08-05.
  23. ^ Rajat, Raina; Ng, Andrew Y.; Koller, Daphne (2006). "Informationspriors mit Übertragungslernen konstruieren". Die dreiundzwanzigste internationale Konferenz über maschinelles Lernen (PDF). Abgerufen 2007-08-05.
  24. ^ Maitra, D. S.; Bhattacharya, U.; Parui, S. K. (August 2015). "CNN -basierter gemeinsamer Ansatz zur handschriftlichen Charaktererkennung mehrerer Skripte". 2015 13. Internationale Konferenz über Dokumentanalyse und Anerkennung (ICDAR): 1021–1025. doi:10.1109/icdar.2015.7333916. ISBN 978-1-4799-1805-8. S2CID 25739012.
  25. ^ Bickel, Steffen (2006). "ECML-PKDD Discovery Challenge 2006 Übersicht". ECML-PKDD Discovery Challenge Workshop (PDF). Abgerufen 2007-08-05.
  26. ^ Bird, Jordan J.; Kobylarz, Jhonatan; Faria, Diego R.; Ekart, Aniko; Ribeiro, Eduardo P. (2020). "Cross-Domain-MLP- und CNN-Transferlernen für biologische Signalverarbeitung: EEG und EMG". IEEE -Zugang. Institut für Elektro- und Elektronikingenieure (IEEE). 8: 54789–54801. doi:10.1109/access.2020.2979074. ISSN 2169-3536.
  27. ^ Maitra, Durjoy Sen; Bhattacharya, Ujjwal; Parui, Swapan K. (August 2015). "CNN -basierter gemeinsamer Ansatz zur handschriftlichen Charaktererkennung mehrerer Skripte". 2015 13. Internationale Konferenz über Dokumentanalyse und Anerkennung (ICDAR): 1021–1025. doi:10.1109/icdar.2015.7333916. ISBN 978-1-4799-1805-8. S2CID 25739012.
  28. ^ Kabir, H. M. Dipu; Abdar, Moloud; Jalali, Seyed Mohammad Jafar; Khosravi, Abbas; Atiya, Amir F.; Nahavandi, Saeid; Srinivasan, Dipti (7. Januar 2022). "Spinalnet: Deep Neural Network mit allmählicher Eingabe". IEEE -Transaktionen zur künstlichen Intelligenz: 1–13. Arxiv:2007.03347. doi:10.1109/tai.2022.3185179. S2CID 220381239.
  29. ^ Allamanis, Miltiadis; Barr, Earl T.; Devanbu, Premkumar; Sutton, Charles (2019-07-31). "Eine Übersicht über maschinelles Lernen für große Code und Natürlichkeit". ACM Computing -Umfragen. 51 (4): 1–37. doi:10.1145/3212695. ISSN 0360-0300. S2CID 207591052.
  30. ^ Chen, Zimin; Kursch, Steve James; Monperrus, Martin (2022). "Lernen für neuronale Transfer für die Reparatur von Sicherheitslücken im C -Code". IEEE -Transaktionen auf Software -Engineering: 1. doi:10.1109/tse.2022.3147265. ISSN 1939-3520. S2CID 233296471.

Quellen

  • Thrun, Sebastian; Pratt, Lorien (6. Dezember 2012). Lernen zu lernen. Springer Science & Business Media. ISBN 978-1-4615-5529-2.