Reinforcement Learning : Aktuelle Ansätze verstehen - mit Beispielen in Java und Greenfoot

Bibliographische Detailangaben

Titel
Reinforcement Learning Aktuelle Ansätze verstehen - mit Beispielen in Java und Greenfoot
verantwortlich
Lorenz, Uwe (VerfasserIn)
veröffentlicht
Berlin: Springer Vieweg, 2020
Erscheinungsjahr
2020
Teil von
Springer eBook Collection
Erscheint auch als
Lorenz, Uwe, Reinforcement Learning, Berlin : Springer Vieweg, 2020, XVIII, 170 Seiten
Andere Ausgaben
Reinforcement Learning: aktuelle Ansätze verstehen - mit Beispielen in Java und Greenfoot
Medientyp
E-Book
Datenquelle
K10plus Verbundkatalog
Tags
Tag hinzufügen

Zugang

Weitere Informationen sehen Sie, wenn Sie angemeldet sind. Noch keinen Account? Jetzt registrieren.

Zusammenfassung
In uralten Spielen wie Schach oder Go können sich die brillantesten Spieler verbessern, indem sie die von einer Maschine produzierten Strategien studieren. Robotische Systeme üben ihre Bewegungen selbst. In Arcade Games erreichen lernfähige Agenten innerhalb weniger Stunden übermenschliches Niveau. Wie funktionieren diese spektakulären Algorithmen des bestärkenden Lernens? Mit gut verständlichen Erklärungen und übersichtlichen Beispielen in Java und Greenfoot können Sie sich die Prinzipien des bestärkenden Lernens aneignen und in eigenen intelligenten Agenten anwenden. Greenfoot (M.Kölling, King’s College London) und das Hamster-Modell (D.Bohles, Universität Oldenburg) sind einfache aber auch mächtige didaktische Werkzeuge, die entwickelt wurden, um Grundkonzepte der Programmierung zu vermitteln. Wir werden Figuren wie den Java-Hamster zu lernfähigen Agenten machen, die eigenständig ihre Umgebung erkunden. Der Inhalt Bestärkendes Lernen als Teilgebiet des Maschinellen Lernens Grundbegriffe des Bestärkenden Lernens Optimale Entscheidungen in einem bekannten Umweltsystem – dynamische Programmierung – rekursive Tiefensuche Entscheiden und Lernen in einem unbekannten Umweltsystem – Monte Carlo-Evaluationen und Monte Carlo-Baumsuche (MCTS) – Q- und Sarsa Learning, Eignungspfade, Dyna-Q – Policy Gradient und Actor-Critic neuronale Netze als Schätzer für Zustandsbewertungen und Aktionspreferenzen Werden digitale Agenten bald intelligenter als Menschen sein? Leitbilder in der K.I. Die Zielgruppen Fortbildung für Lehrkräfte, Dozenten, die Einblicke in die Programmierung von lernfähigen Agenten bekommen möchten Techniker, Informatiker, die ML-Algorithmen besser verstehen wollen Programmierer, die Lernalgorithmen selbst implementieren wollen Schüler oder Studierende, die sich mit maschinellem Lernen und intelligentenAgenten beschäftigen Der Autor Uwe Lorenz ist nach seinem Studium der Informatik und Philosophie mit Schwerpunkt künstliche Intelligenz und maschinelles Lernen an der Humboldt-Universität in Berlin und einigen Jahren als Projektingenieur derzeit als Gymnasiallehrer für Informatik und Mathematik tätig, – seit seinem Erstkontakt mit Computern Ende der 80iger Jahre hat ihn das Thema Künstliche Intelligenz nicht mehr losgelassen.
Umfang
1 Online-Ressource (XVIII, 170 Seiten)
Sprache
Deutsch
Schlagworte
BK-Notation
54.72 Künstliche Intelligenz
ISBN
9783662616512
DOI
10.1007/978-3-662-61651-2