Eric Horvitz

Eric Horvitz
Eric Horvitz, PCAST Member (cropped).jpg
Geboren
Eric Joel Horvitz
Staatsangehörigkeit amerikanisch
Beruf Informatiker
Arbeitgeber Microsoft
Titel Chief Scientific Officer

Eric Joel Horvitz (/ˈhɔːrvɪts/) ist ein amerikanischer Informatiker und technischer Fellow bei Microsoft, wo er als erster wissenschaftlicher Vorsterer des Unternehmens fungiert.[1] Er war zuvor der Direktor von Microsoft Research Labors, einschließlich Forschungszentren in Redmond, WA, Cambridge, MA, New York, NY, Montreal, Kanada, Cambridge, Großbritannien und Bangalore, Indien.

Horvitz wurde zum Mitglied der gewählt Nationale Akademie des Ingenieurwesens 2013 für Rechenmechanismen für Entscheidungsfindung unter Unsicherheit und mit begrenzten Ressourcen.

Biografie

Horvitz erhielt seine Ph.D. und M.D. von Universität in Stanford.[2] Seine Doktorarbeit, Berechnung und Aktion unter begrenzten Ressourcenund Follow-On-Forschung führte Modelle der begrenzten Rationalität ein, die in Wahrscheinlichkeit und Entscheidungstheorie gegründet wurden. Er hat seine Doktorarbeit unter Beratern durchgeführt Ronald A. Howard, George B. Dantzig, Edward H. Shortliffe, und Patrick unterhält.

Er ist derzeit Chief Scientific Officer von Microsoft. Er wurde zum Fellow der Vereinigung zur Weiterentwicklung künstlicher Intelligenz (Aaai), die Nationale Akademie des Ingenieurwesens (Nae), die Amerikanische Akademie für Kunst und Wissenschaftenund von der American Association for the Advancement of Science (AAAS).

Er wurde 2014 als ACM-Stipendiat für "Beiträge zur künstlichen Intelligenz und die Interaktion zwischen Mensch und Komputer" gewählt.[3]

Er wurde 2013 in die ACM Chi Academy gewählt, um „Forschungen an der Schnittstelle der Interaktion zwischen Mensch und künstlicher Intelligenz“ zu untersuchen.[4]

He was elected to the Amerikanische philosophische Gesellschaft 2018.[5]

2015 wurde er mit dem AAAI Feigenbaum -Preis ausgezeichnet.[6] Ein zweijährlicher Preis für nachhaltige und hochwirksame Beiträge zum Gebiet der künstlichen Intelligenz durch die Entwicklung von Rechenmodellen für Wahrnehmung, Reflexion und Handlung sowie ihre Anwendung in zeitkritischen Entscheidungsfindung sowie intelligente Informationen, Verkehr und Gesundheitssysteme.

2015 wurde er auch mit dem ausgezeichnet ACM - AAAI Allen Newell Award,[7] Für "Beiträge zur künstlichen Intelligenz und zur Interaktion zwischen den Berechnung und Entscheidungswissenschaften durch die Entwicklung von Prinzipien und Modellen der Erfassung, Reflexion und rationaler Handlung".

Er dient auf der Der Rat der Berater des Präsidenten für Wissenschaft und Technologie[8] (PCast), das wissenschaftliche Beratungsausschuss der Allen Institute für künstliche Intelligenz (AI2) und die Informatik- und Telekommunikationsausschuss[9] (CSTB) der US -amerikanische Akademien.

Er war Präsident der Vereinigung für die Weiterentwicklung von KI (AAAI), auf dem NSF Computer & Information Science & Engineering (Cise) Beirat im Rat des Rates Computing Community Consortium (CCC), Vorsitzender des Abschnitts über Informationen, Computer und Kommunikation der American Association for the Advancement of Science (AAAS), im Vorstand von Regents[10] des US National Library of Medicine (NLM) und die US National Security Commission für KI.

Arbeit

Die Forschungsinteressen von Horvitz umfassen theoretische und praktische Herausforderungen mit Entwicklungssystemen, die wahrnehmen, lernen und Vernunft. Seine Beiträge umfassen Fortschritte in den Prinzipien und Anwendungen von maschinelles Lernen und Inferenz, Informationsrückgewinnung, Menschliche interaktion mit dem Computer, Bioinformatik, und E-Commerce.

Horvitz spielte eine bedeutende Rolle bei der Verwendung von Wahrscheinlichkeit und Entscheidungstheorie in künstliche Intelligenz. Seine Arbeit brachte die Glaubwürdigkeit künstlicher Intelligenz in anderen Bereichen von Informatik und Technische InformatikFelder, die von der Wechselwirkung zwischen Mensch und Komputer bis hin zu Feldern reichen Betriebssysteme. Seine Forschung half dazu, den Zusammenhang zwischen künstlicher Intelligenz und herzustellen Entscheidungswissenschaft. Als Beispiel prägte er das Konzept der begrenzten Optimalität, einen entscheidenden theoretischen Ansatz zu begrenzte Rationalität.[11] Die Einflüsse der begrenzten Optimalität erstrecken sich über die Informatik über die Informatik in kognitive Wissenschaft und Psychologie hinaus.[12][13]

Er studierte die Verwendung von Wahrscheinlichkeit und Nutzen, um automatisierte Argumentation für die Entscheidungsfindung zu leiten. Die Methoden umfassen die Berücksichtigung der Lösung von Problemen von Problemen[14] in Umgebungen im Laufe der Zeit. In verwandten Arbeiten wandte er Wahrscheinlichkeit und maschinelles Lernen an, um kombinatorische Probleme zu lösen und den Theorem -Beweis zu leiten.[15] Er stellte das Algorithmus -Paradigma in AI ein, in Ai,[16][17] Wenn Teilergebnisse, Wahrscheinlichkeiten oder Versorgungsunternehmen von Ergebnissen mit der Berechnung unter verschiedenen Verfügbarkeiten oder Zeitkosten verfeinert werden, wird durch den erwarteten Berechnungswert geleitet.[18][19]

Er hat langfristige Herausforderungsprobleme für KI herausgegeben[20]-und hat sich für eine Vision von Open-World AI eingestellt,[21] Wo Maschinenintelligenzen die Fähigkeit haben, in der größeren Welt, in der sie sich noch nicht gesehen haben, gut zu verstehen und zu erreichen.

Er hat Synergien zwischen menschlicher und maschineller Intelligenz untersucht.[22] Er führte Prinzipien für die Verwendung maschineller Lernen und Entscheidungstheorie ein, um die Maschine gegen menschliche Initiative zu steuern.[23] Methoden, die KI -Systeme vermitteln, wann die Problemlösung auf den Menschen übertragen werden soll,[24] und die Verwendung von maschinellem Lern- und Planungstechniken zur Identifizierung und Zusammenführung der ergänzenden Fähigkeiten von Menschen und KI -Systemen.[25][22][26] In der Arbeit an menschenzentriertem KI führte er Maßnahmen und Modelle des erwarteten Wertes der angezeigten Informationen ein, um die Anzeige von Informationen an menschliche Entscheidungsträger in zeitkritischen Umgebungen zu leiten[27] und Methoden zur statistischen KI -Schlussfolgerungen verständlicher.[28] Er führte Modelle der menschlichen Aufmerksamkeit in Computersystemen ein,[29][30] und untersuchte die Verwendung von maschinellem Lernen, um die Kosten für Unterbrechungen bei Computerbenutzern zu schließen.[31][32] Seine Verwendung von maschinellem Lernen zum Aufbau von Modellen menschlicher Überraschung wurde als technologischer Durchbruch von vorgestellt MIT Technology Review.[33]

Er untersuchte die Verwendung von KI[34][35] und im täglichen Leben.[36]

Er leistete Beiträge zu Multimodale Interaktion.[37] Im Jahr 2015 erhielt er den ACM ICMI STURAGED AFIERTE Award Award[38][39] Für Beiträge zur multimodalen Interaktion. Seine Arbeit zur multimodalen Interaktion umfasst Untersuchungen zur situierten Interaktion.[40][41] Wo Systeme physikalische Details der Einstellungen der offenen Welt berücksichtigen und Dialog mit mehreren Personen ausführen können.[42]

Er war mitverfestigt mit Wahrscheinlichkeitsbasierten Methoden zur Verbesserung der Privatsphäre, einschließlich eines Modells der altruistischen Teilen von Daten, die als Community Sensing bezeichnet werden[43] und risikoempfindliche Ansätze[44] einschließlich stochastischer Privatsphäre.[45]

Er ist Microsofts Top -Erfinder.[46]

Er leitete Bemühungen zur Anwendung von KI -Methoden auf Computersysteme, einschließlich maschinelles Lernen für das Speichermanagement in Windows,[47] Webvorabsetzung,[48] Grafikrendern,[49] und Webkriechen.[50] Er arbeitete früh an KI zum Debuggen von Software.[51]

Horvitz spricht zum Thema künstliche Intelligenz, einschließlich auf NPR und die Charlie Rose Show.[52][53][54] Online -Gespräche umfassen sowohl technische Vorträge als auch Präsentationen für das allgemeine Publikum (TEDX Austin: Freunde mit künstlicher Intelligenz fehlen). Seine Forschung wurde in vorgestellt Die New York Times und MIT Technology Review.[55][56][57][33] Er hat vor dem US -Senat über Pro -Gress, Chancen und Herausforderungen mit KI ausgesagt.[58]

KI und Gesellschaft

Er hat technische und gesellschaftliche Herausforderungen und Chancen mit dem Feld von KI -Technologien in der offenen Welt angegangen.[59] einschließlich vorteilhafter Verwendungszwecke von KI,[60] KI Sicherheit und Robustheit,[61] und wo KI -Systeme und Fähigkeiten unbeabsichtigte Auswirkungen haben, Gefahren darstellen oder missbraucht werden können.[59][62][63][64] Er hat in militärischen Umgebungen Vorbehalte mit AI -Anwendungen vorgestellt.[65] Er und Thomas G. Dietterich forderte die Arbeit an AI -Ausrichtungund sagen, dass KI -Systeme "darüber nachdenken müssen, was die Menschen beabsichtigen, anstatt Befehle buchstäblich auszuführen".[62]

Er forderte Maßnahmen zu potenziellen Risiken für bürgerliche Freiheiten, die durch die Verwendung von Daten von Daten in KI -Systemen aufgestellt wurden.[66] Er und der Datenschutzwissenschaftler Deirdre Mulligan erklärten, dass die Gesellschaft Privatsphäre mit den Vorteilen von Daten zum sozialen Nutzen in Einklang bringen muss.[67]

Er hat die Risiken von AI-fähigen Deepfakes vorgestellt und zu Medienproduktionstechnologien beigetragen[68] Das zertifiziert die Quelle und Geschichte von Änderungen digitaler Inhalte kryptografisch.[69]

Asilomar AI -Studie

Er diente als Präsident der Aaai Von 2007 bis 2009. Als AAAI-Präsident rief er zusammen und war Co-Vorsitzender der Vorsitzenden Asilomar AI -Studie was in einem Treffen von KI -Wissenschaftlern bei gipfelte Asilomar Im Februar 2009. Die Studie berücksichtigte die Art und den Zeitpunkt der KI-Erfolge und überprüfte Bedenken hinsichtlich der Richtungen mit KI-Entwicklungen, einschließlich des potenziellen Kontrollverlusts über computergestützte Intelligenzen sowie Anstrengungen, die Bedenken verringern und langfristige gesellschaftliche Ergebnisse verbessern könnten. Die Studie war das erste Treffen von KI -Wissenschaftlern, die sich mit Bedenken hinsichtlich der Superintelligenz und des Verlusts der Kontrolle über KI befassen und von der Öffentlichkeit Interesse geweckten.[70]

Bei der Berichterstattung über die Asilomar -Studie sagte er, dass Wissenschaftler auf Begriffe von Superintelligenten Maschinen und Bedenken hinsichtlich künstlicher Intelligenzsysteme studieren und darauf reagieren müssen, die der menschlichen Kontrolle entkommen.[70] In einem späteren NPR -Interview sagte er, dass Investitionen in wissenschaftliche Studien zu Superintelligenzen wertvoll wären, um proaktive Anstrengungen zu leiten, auch wenn die Menschen der Ansicht sind, dass die Wahrscheinlichkeit, die Kontrolle der KI zu verlieren, aufgrund der Kosten für solche Ergebnisse niedrig sei.[71]

Einhundertjährige Studie über künstliche Intelligenz

Im Jahr 2014 definierte und finanzierte Horvitz mit seiner Frau die Einhundertjährige Studie über künstliche Intelligenz (AI100) bei Universität in Stanford.[72][73] 2016 die AI -Index wurde als Projekt der einhundertjährigen Studie gestartet.

Laut Horvitz reicht das AI100 -Geschenk, das in Zukunft zunehmen kann, aus, um die Studie für ein Jahrhundert zu finanzieren.[73] In einer Pressemitteilung von Stanford wurde festgestellt, dass "Ausschüsse über ein Jahrhundert" studieren und davon ausgehen werden, wie sich die Auswirkungen künstlicher Intelligenz durch jeden Aspekt der Arbeit, der Arbeit und des Spielen durch die Arbeit künstlichen Intelligenz machen ". Ein Rahmenmemo für die Studie fordert 18 Themen zur Prüfung, darunter Recht, Ethik, Wirtschaft, Krieg und Kriminalität.[73][74] Zu den Themen gehören Missbräuche von KI, die die Demokratie und Freiheit bedroht und die Möglichkeiten der Superintelligenzen und der Verlust der Kontrolle der KI behandeln könnten.

Die einhundertjährige Studie wird von einem ständigen Komitee überwacht. Das Ständige Komitee formuliert Fragen und Themen und organisiert alle fünf Jahre ein Studiengremium. Das Studiengremium stellt einen Bericht aus, in dem der Status und die Geschwindigkeit des Fortschritts von AI -Technologien, Herausforderungen und Chancen in Bezug auf die Einflüsse von AI auf Menschen und die Gesellschaft bewertet werden.

Das Studiengremium 2015 der einhundertjährigen Studie unter dem Vorsitz von Peter Stone, veröffentlichte im September 2016 einen Bericht mit dem Titel " "Künstliche Intelligenz und Leben im Jahr 2030. "[75] Das Gremium setzte sich für eine verstärkte öffentliche und private Ausgaben für die Branche ein, empfahl ein erhöhtes KI -Know -how auf allen Regierungsebenen und empfahl gegen pauschale Regierungsregulierung.[76][77] Panelstuhl Peter Stone argumentiert, dass KI menschliche Arbeitnehmer nicht automatisch ersetzt, sondern die Belegschaft ergänzen und neue Arbeitsplätze in der technischen Wartung schaffen wird.[76] Während der Bericht sich hauptsächlich auf die nächsten 15 Jahre konzentrierte, berührte der Bericht Bedenken und Erwartungen, die im letzten Jahrzehnt über die Risiken von Superintelligent -Robotern gestiegen waren, die "anders als in den Filmen feststellen, es gibt kein Rennen von übermenschlichen Robotern am Horizont oder wahrscheinlich wahrscheinlich überhaupt möglich.[77][78] Stone erklärte, dass "es eine bewusste Entscheidung war, dies im Bericht nicht Glaubwürdigkeit zu verleihen."[73]

Das Bericht über den zweiten Zyklus der AI100 -Studieuntersitz von Michael Littman, wurde 2016 veröffentlicht.[79][80]

Gründung der Partnerschaft auf KI

Er war Mitbegründer und war als Vorstandsvorsitzender des Partnerschaft auf KI, Eine gemeinnützige Organisation, die Apple, Amazon, Facebook, Google, DeepMind, IBM und Microsoft mit Vertretern der Zivilgesellschaft, der Wissenschaft und der gemeinnützigen F & E zusammenbringt. Die Website der Organisation zeigt auf Initiativen, einschließlich Studien zu Risikowerten in der Strafjustiz,[81] Gesichtserkennungssysteme,[82] KI und Wirtschaft,[83] KI -Sicherheit,[84] KI und Medienintegrität,[85] und Dokumentation von AI -Systemen.[86]

Microsoft Aether Committee

Er gründete und leitet das Äther -Komitee von Microsoft, dem internen Ausschuss von Microsoft, über die verantwortungsvolle Entwicklung und Felderin von AI -Technologien.[87][88] Er berichtete, dass das Äther -Komitee Empfehlungen zu Entscheidungen abgegeben und die kommerziellen KI -Bemühungen von Microsoft beeinflusst habe.[89][90] Im April 2020 veröffentlichte Microsoft Inhalte zu Prinzipien, Richtlinien und Tools, die vom Äther-Komitee und seinen Arbeitsgruppen entwickelt wurden, darunter Teams, die sich auf die Zuverlässigkeit und Sicherheit von KI, die Voreingenommenheit und Fairness, Verständlichkeit und Erklärung sowie die Zusammenarbeit von Human-AI-KI konzentrierten.[91]

Veröffentlichungen

Bücher

  • Horvitz, E. (Dezember 1990), Berechnung und Aktion unter begrenzten Ressourcen (PDF) (Dissertation), Stanford, CA: Stanford University

Ausgewählte Artikel

Podcasts

Verweise

  1. ^ Bonifacic, Igor (11. März 2020). "Microsoft ernennt seinen ersten Chief Scientific Officer". Engadget. Abgerufen 27. März 2020.
  2. ^ "Eric Horvitz". IEEE XPLORE Digitale Bibliothek. Abgerufen 3. Juni 2019.
  3. ^ Eric Horvitz ACM Fellows 2014
  4. ^ "2013 Sigchi Awards - ACM Sigchi". Abgerufen 2022-03-22.
  5. ^ "Wahl neuer Mitglieder bei der Frühjahrstreffen 2018 | American Philosophical Society".
  6. ^ "Der AAAI Feigenbaum -Preis". Aaai. Abgerufen 14. April 2016.
  7. ^ "Eric Horvitz - Preisträger". ACM. Abgerufen 3. Juni 2019.
  8. ^ "Eric Horvitz, MD PhD". Das weiße Haus. Abgerufen 2022-01-05., der wissenschaftliche Beratungsausschuss der Allen Institute für künstliche Intelligenz (AI2) und die Informatik- und Telekommunikationsausschuss (CSTB) "Mitgliedschaft in der Informatik- und Telekommunikationsausschreibung". Die nationalen Akademien der Wissenschaften, Ingenieurwesen und Medizin. Abgerufen 3. Juni 2019.
  9. ^ "Über die Informatik und das Telekommunikationsausschuss". Nationale Akademien. Abgerufen 2022-01-14.
  10. ^ "Board of Regents". US -amerikanische Nationalbibliothek für Medizin. Abgerufen 3. Juni 2019.
  11. ^ Mackworth, Alan (Juli 2008). "Einführung von Eric Horvitz" (PDF). AAAI -Präsidentschaftsadresse.
  12. ^ Gershman, Samuel J.; Horvitz, Eric J.; Tenenbaum, Joshua B. (17. Juli 2015). "Rechenrationalität: Ein konvergierendes Paradigma für Intelligenz in Gehirnen, Köpfen und Maschinen". Wissenschaft. 349 (6245): 273–278. Bibcode:2015Sci ... 349..273g. doi:10.1126/Science.AAC6076. PMID 26185246. S2CID 14818619.
  13. ^ Howes, Andrew; Duggan, Geoffrey B.; Kalidindi, Kiran; Tseng, Yuan-Chi; Lewis, Richard L. (1. Juli 2016). "Das kurzfristige Erinnern als grenzüberschreitende optimale Strategieauswahl" (PDF). Kognitionswissenschaft. 40 (5): 1192–1223. doi:10.1111/cogs.12271. PMID 26294328.
  14. ^ Horvitz, Eric (Februar 2001), "Prinzipien und Anwendungen der kontinuierlichen Berechnung", Künstliche Intelligenz, 126 (1–2): 159–196, Citeseerx 10.1.1.476.5653, doi:10.1016/s0004-3702 (00) 00082-5
  15. ^ Horvitz, Eric J.; Ruan, Y.; Gomes, C.; Kautz, H.; Selman, b.; Chickering, D.M. (Juli 2001), "Ein Bayes'sche Ansatz zur Bewältigung harter Rechenprobleme" (PDF), Verfahren der Konferenz über Unsicherheit und künstliche Intelligenz: 235–244
  16. ^ Horvitz, Eric (Juli 1987). "Argumentation über Überzeugungen und Handlungen unter Rechenressourcenbeschränkungen" (PDF). UAI'87 Verfahren der dritten Konferenz über Unsicherheit in der künstlichen Intelligenz. Arlington, VA: Auai Press: 429–447. ISBN 0-444-87417-8.
  17. ^ Horvitz, Eric (August 1988). "Argumentation unter unterschiedlichen und unsicheren Ressourcenbeschränkungen" (PDF). AAAI'88 Verfahren der siebten AAAI Nationalen Konferenz über künstliche Intelligenz. AAAI Press: 111–116.
  18. ^ Horvitz, Eric J.; Cooper, Gregory F.; Heckerman, David E. (August 1989). "Reflexion und Handlung unter knappen Ressourcen: theoretische Prinzipien und empirisches Studium" (PDF). IJCAI'89 Proceedings der 11. Internationalen gemeinsamen Konferenz über künstliche Intelligenz - Band 2. San Francisco, CA: Morgan Kaufmann Publishers Inc.: 1121–1127.
  19. ^ Horvitz, Eric (Dezember 1990). Berechnung und Aktion unter begrenzten Ressourcen (PDF) (Doktorarbeit). Universität in Stanford.
  20. ^ Selman, b.; Brooks, R.; Dean, T.; Horvitz, E.; Mitchell, T.; Nilsson, N. (August 1996), "Herausfragen Probleme für künstliche Intelligenz", Proceedings of AAAI-96, 13. Nationale Konferenz über künstliche Intelligenz, Portland, Oregon: 1340–1345
  21. ^ Horvitz, Eric (Juli 2008), "Künstliche Intelligenz in der offenen Welt", AAAI -Präsidentschaftsvorlesung
  22. ^ a b Horvitz, Eric (13. Januar 2020). "2019 Jahrestagung Plenar: Menschen, Maschinen und Intelligenz". Youtube. Abgerufen 2020-04-02.
  23. ^ Horvitz, Eric (Mai 1999). "Prinzipien der Mischeinheiten-Benutzeroberflächen" (PDF). Verfahren, Chi '99 Proceedings der Sigchi -Konferenz über menschliche Faktoren in Computersystemen. New York, NY: ACM: 159–166. Citeseerx 10.1.1.78.7280. doi:10.1145/302979.303030. ISBN 0-201-48559-1. S2CID 8943607.
  24. ^ Horvitz, Eric; Paek, Tim (2007-03-01). "Komplementäres Computer: Richtlinien für die Übertragung von Anrufern von Dialogsystemen auf menschliche Rezeptionisten". Benutzermodellierung und benutzerdefinierte Interaktion. 17 (1): 159–182. doi:10.1007/s11257-006-9026-1. ISSN 1573-1391. S2CID 2819237.
  25. ^ Kamar, ECE; Hacker, Severin; Horvitz, Eric (8. Juni 2018). "Kombination von menschlicher und maschineller Intelligenz in großem Maßstab Crowdsourcing" (PDF). Proceeding, AAMAS '12 Proceedings der 11. Internationalen Konferenz über autonome Agenten und Multiagent -Systeme - Band 1. Richland, SC: Internationale Stiftung für autonome Agenten und Mehrfachsysteme. 1: 467–474. ISBN 978-0-9817381-1-6.
  26. ^ Wilder, Bryan; Horvitz, Eric; Kamar, ECE (2020-07-09). "Lernen, Menschen zu ergänzen". Verfahren der neunundzwanzigsten gemeinsamen Konferenz über künstliche Intelligenz. 2: 1526–1533. doi:10.24963/ijcai.2020/212. ISBN 978-0-9992411-6-5. S2CID 218486980.
  27. ^ Horvitz, Eric; Barry, Matthew (August 1995). "Anzeige von Informationen für zeitkritische Entscheidungsfindung" (PDF). Verfahren, Uai'95 -Verfahren der elften Konferenz über Unsicherheit in der künstlichen Intelligenz. San Francisco, CA: Morgan Kaufmann Publishers Inc: 296–305. ISBN 1-55860-385-9.
  28. ^ Horvitz, Eric; Heckerman, David; Nathwani, Bharat; Fagan, Lawrence (Oktober 1986). "Die Verwendung einer heuristischen Problemlösungshierarchie, um die Erklärung des hypothesengesteuerten Denkens zu erleichtern" (PDF). Verfahren von Medinfo: 27–31.
  29. ^ Horvitz, Eric; Kadie, Carl; Peak, Tim; Hovel, David (März 2003). "Aufmerksamkeitsmodelle in Computer und Kommunikation: Von Prinzipien zu Anwendungen" (PDF). Kommunikation der ACM. New York, NY: ACM. 46: 52–59. doi:10.1145/636772.636798. S2CID 2584780.
  30. ^ Markhoff, John (17. Juli 2000). "Microsoft sieht Software 'Agent' als Weg, um Ablenkungen zu vermeiden.". Die New York Times. Abgerufen 3. Juni 2019.
  31. ^ Horvitz, Eric; Apacible, Johnson (2003-11-05). "Lernen und Denken über Unterbrechung". Verfahren der 5. Internationalen Konferenz über multimodale Schnittstellen. ICMI '03. New York, NY, USA: Vereinigung für Computermaschinen: 20–27. doi:10.1145/958432.958440. ISBN 978-1-58113-621-0. S2CID 1183716.
  32. ^ Horvitz, Eric; Koch, Paul; Apacible, Johnson (2004-11-06). "Beschäftigungsbody: Erstellen und Festlegen personalisierter Modelle der Kosten für die Unterbrechung". Verfahren der ACM -Konferenz von 2004 über Computer unterstützte kooperative Arbeiten. CSCW '04. New York, NY, USA: Vereinigung für Computermaschinen: 507–510. doi:10.1145/1031607.1031690. ISBN 978-1-58113-810-8. S2CID 11517148.
  33. ^ a b Waldrop, M. Mitchell (19. Februar 2008). "TR10: Modellierung Überraschung". MIT Technology Review. Abgerufen 2022-01-11.
  34. ^ Horvitz, e; Breese, J; Heckerman, D; Hovel, D; Rommelse, K (Juli 1998). "Das Lumiere -Projekt: Bayesianische Benutzermodellierung zum Abschluss der Ziele und Anforderungen von Software -Benutzern". Verfahren der UAI, Konferenz über Unsicherheit in der künstlichen Intelligenz: 256–265.
  35. ^ "Lumiere - intelligente Benutzeroberfläche". Youtube. 2009-08-31 [1995]. Abgerufen 2020-04-02.
  36. ^ "Wie die Vergesslichkeit eines der besten Wissenschaftler von Microsoft eine Killer -neue Funktion für Windows 10 inspiriert haben". Business Insider Australia. 2017-02-09. Abgerufen 2022-01-11.
  37. ^ "Informationsagenten: Anweisungen und Futures (2001)". Youtube. 2020-02-21 [2001]. Abgerufen 2020-04-02.
  38. ^ "ICMI STAUFED AFIERTE AUFGABE". Internationale Konferenz über multimodale Interaktion. Abgerufen 2020-04-02.
  39. ^ Bohus, D; Horvitz, E (November 2009). "Dialog in der offenen Welt: Plattform und Anwendungen" (PDF). ACM Internationale Konferenz über multimodale Interaktion.
  40. ^ Bohus, D; Horvitz, E (2019). "Sortierte Interaktion". Das Handbuch der multimodalen Multisensor-Schnittstellen, Band 3. Assoziation für Computermaschinen und Morgan & Claypool. S. 105–143. ISBN 978-1-970001-75-4.
  41. ^ "Die Interaktion zwischen Mensch und Computer auf ein neues Maß an Raffinesse erhöhen". Youtube. 2014-04-08. Abgerufen 2020-04-02.
  42. ^ Bohus, D; Horvitz, E (September 2009). "Modelle für das mehrteilige Engagement im Dialogfeld Open-World" (PDF). Sigdial '09: Proceedings of the Sigdial 2009 Conference: Die 10. Jahrestagung der Sonderinteressengruppe über Diskurs und Dialog: 225–234. doi:10.3115/1708376.1708409. ISBN 9781932432640. S2CID 2125746.
  43. ^ Krause, a.; Horvitz, E.; Kansal, A.; Zhao, F. (April 2008), "Auf dem Weg zur Senkung der Gemeinschaft", Verfahren von IPSN 2008
  44. ^ Krause, Andreas; Horvitz, Eric (November 2010). "Ein nützlich-theoretischer Ansatz zur Privatsphäre in Online-Diensten" (PDF). Journal of Artificial Intelligence Research. 39: 633–662. doi:10.1613/jair.3089. S2CID 1582192.
  45. ^ Singla, a.; Horvitz, E.; Kamar, E.; White, R. W. (Juli 2014), "Stochastische Privatsphäre" (PDF), Aaai, 28, Arxiv:1404.5454, Bibcode:2014ArXIV1404.5454S, doi:10.1609/aaai.v28i1.8734
  46. ^ "Schwimmen in kreativen Gewässern: Die Kunst der Erfindung". Microsoft Research. 2019-05-28. Abgerufen 2022-01-13.
  47. ^ Keiser, Gregg (2007-01-19). "Microsoft sagt die Zukunft mit Vistas Superfetch voraus". Informationswoche. Abgerufen 2022-01-13.
  48. ^ Horvitz, Eric (1998-11-01). "Kontinuierliche Berechnungsrichtlinien für die vom Versorgungsunternehmen gerichtete Vorabstetung". Verfahren der siebten Internationalen Konferenz über Informations- und Wissensmanagement. Cikm '98. New York, NY, USA: Vereinigung für Computermaschinen: 175–184. doi:10.1145/288627.288655. ISBN 978-1-58113-061-4. S2CID 13518550.
  49. ^ Horvitz, Eric J.; Lengyel, Jed (2013-02-06). "Wahrnehmung, Aufmerksamkeit und Ressourcen: Ein entscheidender theoretischer Ansatz für das Rendern von Grafiken". Arxiv:1302.1547 [cs.ai].
  50. ^ Kolobov, Andrey; Peres, Yuval; Lubetzky, Eyal; Horvitz, Eric (2019-07-18). "Optimale Frische kriechet unter Höflichkeit Einschränkungen". Proceedings der 42. Internationalen ACM Sigir -Konferenz über Forschung und Entwicklung beim Abrufen von Informationen. Sigir'19. New York, NY, USA: Vereinigung für Computermaschinen: 495–504. doi:10.1145/3331184.3331241. ISBN 978-1-4503-6172-9. S2CID 196203203.
  51. ^ Burnell, Lisa; Horvitz, Eric (1995-03-01). "Struktur und Zufall: Logik und Wahrscheinlichkeit für das Debuggen von Software" verschmelzen ". Kommunikation der ACM. 38 (3): 31 - FF. doi:10.1145/203330.203338. ISSN 0001-0782. S2CID 9644536.
  52. ^ Hansen, Liane (21. März 2009). "Treffen Sie Laura, Ihren virtuellen persönlichen Assistenten". NPR. Abgerufen 16. März 2011.
  53. ^ Kaste, Martin (11. Januar 2011). "Die Singularität: Letzte Erfindung der Menschheit?". NPR. Abgerufen 14. Februar 2011.
  54. ^ Rose, Charlie. "Eine Podiumsdiskussion über künstliche Intelligenz". Archiviert von das Original Am 2011-02-13. Abgerufen 2011-03-12.
  55. ^ Markoff, John (10. April 2008). "Microsoft führt Tool zur Vermeidung von Staus ein". Die New York Times. Abgerufen 16. März 2011.
  56. ^ Markoff, John (17. Juli 2000). "Microsoft sieht Software 'Agent' als Weg, um Ablenkungen zu vermeiden.". Die New York Times. Abgerufen 16. März 2011.
  57. ^ Lohr, Steve und Markoff, John (24. Juni 2010). "Schlauerer als Sie denken: Computer lernen zuzuhören und einige reden zurück". Die New York Times. Abgerufen 12. März 2011.
  58. ^ Horvitz, Eric (30. November 2016). "Überlegungen zum Status und der Zukunft der künstlichen Intelligenz" (PDF). Erichorvitz.com. Abgerufen 3. Juni 2019.
  59. ^ a b Horvitz, Eric (7. Juli 2017). "KI, Menschen und Gesellschaft". Wissenschaft. 357 (6346): 7. Bibcode:2017Sci ... 357 .... 7h. doi:10.1126/science.aao2466. PMID 28684472.
  60. ^ "KI für Social Good (2016): Keynote KI zur Unterstützung von Menschen und Gesellschaft". Youtube. 2016-06-13. Abgerufen 2020-04-20.
  61. ^ Horvitz, Eric (2016-06-27). "Überlegungen zu Sicherheit und künstlicher Intelligenz" (PDF). Eric Horvitz. Abgerufen 2020-04-20.
  62. ^ a b Diätterich, Thomas G; Horvitz, Eric J. (Oktober 2015). "Aufstieg der Bedenken hinsichtlich KI: Reflexionen und Richtungen" (PDF). Kommunikation der ACM. 58 (10): 38–40. doi:10.1145/2770869.
  63. ^ "Konferenz über Ethik & KI: Keynote -Sitzung". Youtube. 2018-04-09. Abgerufen 2020-04-20.
  64. ^ Horvitz, Eric (2017-03-28). "Die lange Sichtweise: KI -Anweisungen, Herausforderungen und Zukunft". Youtube. Abgerufen 2020-04-20.
  65. ^ "Keynote -Adresse, Eric Horvitz: AI Fortschritte, Bestrebungen - und Bedenken". Youtube. 2019-11-15. Abgerufen 2020-04-20.
  66. ^ Horvitz, Eric; Clyburn, Mignon; Felten, ed; LeBlanc, Travis (2021-05-17). "Vorsicht voraus: Das Navigieren von Risiken zu Freiheiten, die von der KI ausgestattet sind". Der Hügel. Abgerufen 2022-01-19.
  67. ^ Horvitz, Eric; Mulligan, Deirdre (17. Juli 2015). "Daten, Privatsphäre und das größere Gut" (PDF). Wissenschaft. Vol. 349, Nr. 6245. S. 253–254. Abgerufen 19. Januar 2022.
  68. ^ England, Paul; Malvar, Henrique S.; Horvitz, Eric; Stokes, Jack W.; Fournet, Cédric; Burke-Aguero, Rebecca; Chamayou, Amaury; Cleebsch, Sylvan; Costa, Manuel (2021-07-15), "Amp: Authentifizierung von Medien über Herkunft", Verfahren der 12. ACM Multimedia Systems Conference, New York, NY, USA: Verband für Computermaschinen, S. 108–121, doi:10.1145/3458305.3459599, ISBN 978-1-4503-8434-6, S2CID 210859168, abgerufen 2022-01-19
  69. ^ Horvitz, Eric (2021-02-22). "Ein vielversprechender Schritt vorwärts bei Desinformation". Microsoft zu den Problemen. Abgerufen 2022-01-19.
  70. ^ a b Markoff, John (26. Juli 2009). "Wissenschaftler besorgen Maschinen können den Mann überlisten". York Times.
  71. ^ Siegel, Robert (11. Januar 2011). "Die Singularität: Letzte Erfindung der Menschheit?". NPR.
  72. ^ Sie, JIA (9. Januar 2015). "Eine 100-jährige Studie über künstliche Intelligenz? Eric Horvitz von Microsoft Research erklärt". Wissenschaft.
  73. ^ a b c d Markoff, John (15. Dezember 2014). "Studie zur Untersuchung der Auswirkungen künstlicher Intelligenz". Die New York Times. Abgerufen 1. Oktober 2016.
  74. ^ "Einhundertjähriger Studium der künstlichen Intelligenz: Reflexionen und Rahmen". Eric Horvitz. 2014. Abgerufen 1. Oktober 2016.
  75. ^ "Bericht: Künstliche Intelligenz, um städtische Städte zu verändern". Houston Chronicle. 1. September 2016. Abgerufen 1. Oktober 2016.
  76. ^ a b Dussault, Joseph (4. September 2016). "KI in der realen Welt: Technologische Führungskräfte betrachten praktische Probleme". Der Christian Science Monitor. Abgerufen 1. Oktober 2016.
  77. ^ a b Peter Stone et al. "Künstliche Intelligenz und Leben im Jahr 2030." Einhundertjährige Studie über künstliche Intelligenz: Bericht des Studiengremiums 2015-2016, Stanford University, Stanford, CA, September 2016. DOC: http://ai100.stanford.edu/2016-Report. Zugriff: 1. Oktober 2016.
  78. ^ Knight, Will (1. September 2016). "Künstliche Intelligenz will Ihr Bruder sein, nicht dein Feind". MIT Technology Review. Abgerufen 1. Oktober 2016.
  79. ^ Stacey, Kevin (16. September 2021). "Neuer Bericht bewertet den Fortschritt und die Risiken künstlicher Intelligenz". Stanford University HAI News und Ankündigungen. Abgerufen 2022-01-20.
  80. ^ McKendrick, Joe (18. September 2021). "Erfolg mit künstlicher Intelligenz hängt mit der Fähigkeit zusammen, zu erweitern, nicht nur zu automatisieren.". ZDNET. Abgerufen 2022-01-20.
  81. ^ "Bericht über algorithmische Risikobewertungsinstrumente im US -amerikanischen Strafjustizsystem". Die Partnerschaft auf KI. 2019-04-23. Abgerufen 2020-04-24.
  82. ^ "Gesichtserkennungssysteme ans Licht bringen". Die Partnerschaft auf KI. 2020-02-18. Abgerufen 2020-04-24.
  83. ^ "KI, Arbeit und die Wirtschaftsstudie Kompendium". Die Partnerschaft auf KI. 2019-04-30. Abgerufen 2020-04-24.
  84. ^ "Einführung von Safelife: Sicherheitsbenchmarks für Verstärkungslernen". Die Partnerschaft auf KI. 2019-12-04. Abgerufen 2020-04-24.
  85. ^ "KI- und Medienintegritätsstiftungsausschuss". Die Partnerschaft auf KI. 2019-12-05. Abgerufen 2020-04-24.
  86. ^ "Über ML". Die Partnerschaft auf KI. Abgerufen 2020-04-24.
  87. ^ Nadella, Satya (2018-03-29). "Satya Nadella -E -Mail an Mitarbeiter: Umarmung unserer Zukunft: intelligente Cloud und intelligente Kante". Microsoft Stories. Abgerufen 3. Juni 2019.
  88. ^ "Microsoft #Techtalk: AI und Ethik". Youtube. 2019-07-17. Abgerufen 2020-04-15.
  89. ^ Boyle, Alan (9. April 2018). "Microsoft lehnt einige Verkäufe über AI -Ethik ab, sagt Top -Forscher Eric Horvitz". Geekwire. Abgerufen 3. Juni 2019.
  90. ^ "Konferenz über Ethik & KI: Keynote -Sitzung". Youtube.Carnegie Mellon Universität.9. April 2018. Abgerufen 3. Juni 2019.
  91. ^ "Verantwortliche KI -Prinzipien von Microsoft". Microsoft Artificial Intelligence. Abgerufen 2020-04-15.

Externe Links