Deep Reinforcement Learning : das umfassende Praxis-Handbuch
Bibliographische Detailangaben
- Titel
- Deep Reinforcement Learning das umfassende Praxis-Handbuch
- verantwortlich
- Ausgabe
- 1. Auflage
- veröffentlicht
- Erscheinungsjahr
- 2020
- Erscheint auch als
- Lapan, Maxim, Deep Reinforcement Learning, 1. Auflage, Frechen : mitp, 2020, 762 Seiten
- Andere Ausgaben
- Deep Reinforcement Learning: das umfassende Praxis-Handbuch
- Medientyp
- E-Book
- Datenquelle
- K10plus Verbundkatalog
- Tags
- Tag hinzufügen
Zugang
Weitere Informationen sehen Sie, wenn Sie angemeldet sind. Noch keinen Account? Jetzt registrieren.
- Details Klicken Sie hier, um den Inhalt der Registerkarte zu laden.
- Internformat Klicken Sie hier, um den Inhalt der Registerkarte zu laden.
- Zusammenfassung
- Cover -- Titel -- Impressum -- Inhaltsverzeichnis -- Über den Autor -- Über die Korrektoren -- Über den Fachkorrektor der deutschen Ausgabe -- Einleitung -- Teil I: Grundlagen des Reinforcement Learnings -- Kapitel 1: Was ist Reinforcement Learning? -- 1.1 Überwachtes Lernen -- 1.2 Unüberwachtes Lernen -- 1.3 Reinforcement Learning -- 1.4 Herausforderungen beim Reinforcement Learning -- 1.5 RL-Formalismen -- 1.5.1 Belohnung -- 1.5.2 Der Agent -- 1.5.3 Die Umgebung -- 1.5.4 Aktionen -- 1.5.5 Beobachtungen -- 1.6 Die theoretischen Grundlagen des Reinforcement Learnings -- 1.6.1 Markov-Entscheidungsprozesse -- 1.6.2 Markov-Prozess -- 1.6.3 Markov-Belohnungsprozess -- 1.6.4 Aktionen hinzufügen -- 1.6.5 Policy -- 1.7 Zusammenfassung -- Kapitel 2: OpenAI Gym -- 2.1 Aufbau des Agenten -- 2.2 Anforderungen an Hard- und Software -- 2.3 OpenAI-Gym-API -- 2.3.1 Aktionsraum -- 2.3.2 Beobachtungsraum -- 2.3.3 Die Umgebung -- 2.3.4 Erzeugen der Umgebung -- 2.3.5 Die CartPole-Sitzung -- 2.4 Ein CartPole-Agent nach dem Zufallsprinzip -- 2.5 Zusätzliche Gym-Funktionalität: Wrapper und Monitor -- 2.5.1 Wrapper -- 2.5.2 Monitor -- 2.6 Zusammenfassung -- Kapitel 3: Deep Learning mit PyTorch -- 3.1 Tensoren -- 3.1.1 Tensoren erzeugen -- 3.1.2 Skalare Tensoren -- 3.1.3 Tensor-Operationen -- 3.1.4 GPU-Tensoren -- 3.2 Gradienten -- 3.2.1 Tensoren und Gradienten -- 3.3 NN-Bausteine -- 3.4 Benutzerdefinierte Schichten -- 3.5 Verlustfunktionen und Optimierer -- 3.5.1 Verlustfunktionen -- 3.5.2 Optimierer -- 3.6 Monitoring mit TensorBoard -- 3.6.1 Einführung in TensorBoard -- 3.6.2 Plotten -- 3.7 Beispiel: GAN für Bilder von Atari-Spielen -- 3.8 PyTorch Ignite -- 3.8.1 Konzepte -- 3.9 Zusammenfassung -- Kapitel 4: Das Kreuzentropie-Verfahren -- 4.1 Klassifikation von RL-Verfahren -- 4.2 Kreuzentropie in der Praxis -- 4.3 Kreuzentropie beim CartPole.
- Umfang
- 1 Online-Ressource (770 Seiten)
- Sprache
- Deutsch
- Schlagworte
- RVK-Notation
-
- Informatik
-
- Monografien
-
- Künstliche Intelligenz
-
- Soft computing, Neuronale Netze, Fuzzy-Systeme
- Informatik
-
- Monografien
-
- Künstliche Intelligenz
-
- Allgemeines
- BK-Notation
- 54.72 Künstliche Intelligenz
- DDC-Notation
- 006.31
- ISBN
- 9783747500378