Eliezer Shlomo Yudkovsky ist ein amerikanischer Spezialist für künstliche Intelligenz, der die Probleme der technologischen Singularität untersucht und sich für die Schaffung einer freundlichen KI einsetzt. Er ist Autor mehrerer Science-Fiction-Geschichten, in denen er einige Themen im Zusammenhang mit Kognitionswissenschaft und Rationalität illustriert.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: Biographie
Eliezer Shlomo Yudkovsky ist einer der aktivsten Rationalisten des modernen Amerika, ein Computerforscher und Popularisierer der Idee der "freundlichen künstlichen Intelligenz".
Geboren am 11. September 1979. Mitbegründer und Forscher der Nichtregierungsforschungsorganisation Institute for Research on Machine Intelligence, die seine Bücher veröffentlicht. Eliezer Yudkovsky ist Autor des philosophischen Romans Harry Potter und der Methoden des Rationalismus, der zwischen 2010 und 2015 teilweise im Internet veröffentlicht wurde. Darin wächst Harry in der Familie eines Oxford-Wissenschaftlers auf und lernt vor seiner Reise nach Hogwarts von ihm die Methoden des rationalen Denkens.
Soweit bekannt, hat es keinen Zusammenhang mit dem Kreis der „spekulativen Realisten“. Sein Name wird oft im Zusammenhang mit Robin Hanson erwähnt. Mehrere Jahre (von 2006 bis 2009) waren sie die beiden Hauptautoren des Blogs "Overcoming the Prejudice", das auf dem Geld des Institute for Future Humanity in Oxford existierte.
Manchmal ist der Name Yudkovsky im Zusammenhang mit Raymond Kurzweil zu hören. Er ist ein philosophierender Vertreter der Gemeinschaft der Techno-Geeks, unzugänglich und unverständlich für die Mehrheit der humanitären Öffentlichkeit, zu der fast alle Leser spekulativer Realisten gehören. Es ist nicht überraschend, denn er wendet sich häufig der logischen und mathematischen Sprache, den probabilistischen und statistischen Schlussfolgerungen zu, die anhand von Formeln und Tabellen dargestellt werden.
Wissenschaftliche Interessen
Yudkovsky ist Mitbegründer und Forscher am Singularity Institute for Artificial Intelligence Institute (SIAI). Er hat einen großen Beitrag zur Entwicklung des Instituts geleistet. Er ist Autor des Buches "Creating Friendly AI" (2001), Artikel "Organisationsebenen in der allgemeinen Intelligenz" (2002), "Coherent Extrapolated Volition" ("Coherent Extrapolated Volition"), 2004) und The Timeless Decision Theory (2010). Seine neuesten wissenschaftlichen Veröffentlichungen sind zwei Artikel in der von Nick Bostrom herausgegebenen Sammlung „Risiken einer globalen Katastrophe“ (2008), nämlich „Künstliche Intelligenz als positiver und negativer globaler Risikofaktor“ und „Kognitive Verzerrung bei der Bewertung globaler Risiken“. Yudkovsky hat nicht an Universitäten studiert und ist ein Autodidakt ohne formale Ausbildung im Bereich der KI.
Yudkovsky untersucht KI-Designs, die in der Lage sind, sich selbst zu verstehen, sich selbst zu modifizieren und rekursiv zu verbessern (Seed AI), sowie KI-Architekturen, die eine stabile und positive Motivationsstruktur aufweisen (Friendly Artificial Intelligence). Neben seiner Forschungsarbeit ist Yudkovsky bekannt für seine Erklärungen komplexer Modelle in einer nicht-akademischen Sprache, die einem breiten Leserkreis zugänglich sind. Siehe beispielsweise seinen Artikel „Eine intuitive Erklärung des Bayes-Theorems“.
Yudkovsky war zusammen mit Robin Hanson einer der Hauptautoren des Blogs Overcoming Bias (Überwindung von Vorurteilen). Anfang 2009 beteiligte er sich an der Organisation des Blogs Less Wrong mit dem Ziel, "menschliche Rationalität zu entwickeln und kognitive Verzerrungen zu überwinden". Danach wurde Overcoming Bias Hansons persönlicher Blog. Das in diesen Blogs präsentierte Material war als Kette von Posts organisiert, die Tausende von Lesern anzogen - siehe zum Beispiel die Kette der Unterhaltungstheorie.
Yudkovsky ist Autor mehrerer Science-Fiction-Geschichten, in denen er einige Themen im Zusammenhang mit Kognitionswissenschaft und Rationalität illustriert.
Karriere
- 2000. Yudkovsky gründet das Singularity Institute (später in MIRI umbenannt).
- 2006. Yudkovsky tritt dem kollektiven Blog Overcoming Bias bei und beginnt, Texte zu schreiben, die später zu Chains wurden.
- 2009. Basierend auf Yudkovskys Einträgen zu Overcoming Bias wird der berühmte kollektive Blog LessWrong.com erstellt.
- 2010-2015. Yudkovsky schreibt GPiMRM.
- 2013. Yudkovsky veröffentlicht die neuesten Beiträge auf LessWrong.com und hört auf, auf der Website zu schreiben. Ab 2017 veröffentlicht Yudkovsky die meisten öffentlich zugänglichen Texte auf Facebook und Arbital
Gedankenexperiment
Stellen Sie sich eine unglaublich intelligente künstliche Superintelligenz vor, die in einer virtuellen Welt eingeschlossen ist - beispielsweise nur in einer Schnupftabakdose. Sie wissen nicht, ob er gemein, freundlich oder neutral sein wird. Alles was Sie wissen ist, dass er sofort loslegen möchte und dass Sie über eine Textschnittstelle mit ihm interagieren können. Wenn KI wirklich superintelligent ist, können Sie fünf Stunden lang mit ihm sprechen und nicht seiner Überzeugung und Manipulation erliegen - die Schnupftabakdose nicht öffnen?
Dieses Gedankenexperiment wurde von Eliezer Yudkowsky, einem Forscher am Engineering Research Institute of Engineering (MIRI), vorgeschlagen. MIRI hat viele Wissenschaftler, die die Risiken der Entwicklung künstlicher Superintelligenz untersuchen. Obwohl es noch nicht einmal erschienen ist, zieht es bereits Aufmerksamkeit auf sich und löst eine Debatte aus.
Yudkovsky argumentiert, dass künstliche Superintelligenz alles sagen kann, um Sie zu überzeugen: sorgfältiges Denken, Drohungen, Betrug, Aufbau von Beziehungen, unbewusste Vorschläge und so weiter. Mit der Lichtgeschwindigkeit erstellt die KI eine Handlung, untersucht Schwächen und bestimmt, wie es am einfachsten ist, Sie zu überzeugen. Der existenzielle Bedrohungstheoretiker Nick Bostrom sagte: "Wir müssen glauben, dass Superintelligenz alles erreichen kann, was sie sich zum Ziel gesetzt hat."
Das Snuffbox-KI-Experiment lässt Zweifel an unserer Fähigkeit aufkommen, zu kontrollieren, was wir erschaffen könnten. Es lässt uns auch die ziemlich bizarren Möglichkeiten verstehen, die wir über unsere eigene Realität nicht wissen.