Deep Reinforcement Learning : das umfassende Praxis-Handbuch

Bibliographische Detailangaben

Titel
Deep Reinforcement Learning das umfassende Praxis-Handbuch
verantwortlich
Lapan, Maxim (VerfasserIn)
Ausgabe
1. Auflage
veröffentlicht
Frechen: mitp, 2020
©2020
Erscheinungsjahr
2020
Erscheint auch als
Lapan, Maxim, Deep Reinforcement Learning, 1. Auflage, Frechen : mitp, 2020, 762 Seiten
Andere Ausgaben
Deep Reinforcement Learning: das umfassende Praxis-Handbuch
Medientyp
E-Book
Datenquelle
K10plus Verbundkatalog
Tags
Tag hinzufügen

Zugang

Weitere Informationen sehen Sie, wenn Sie angemeldet sind. Noch keinen Account? Jetzt registrieren.

Zusammenfassung
Cover -- Titel -- Impressum -- Inhaltsverzeichnis -- Über den Autor -- Über die Korrektoren -- Über den Fachkorrektor der deutschen Ausgabe -- Einleitung -- Teil I: Grundlagen des Reinforcement Learnings -- Kapitel 1: Was ist Reinforcement Learning? -- 1.1 Überwachtes Lernen -- 1.2 Unüberwachtes Lernen -- 1.3 Reinforcement Learning -- 1.4 Herausforderungen beim Reinforcement Learning -- 1.5 RL-Formalismen -- 1.5.1 Belohnung -- 1.5.2 Der Agent -- 1.5.3 Die Umgebung -- 1.5.4 Aktionen -- 1.5.5 Beobachtungen -- 1.6 Die theoretischen Grundlagen des Reinforcement Learnings -- 1.6.1 Markov-Entscheidungsprozesse -- 1.6.2 Markov-Prozess -- 1.6.3 Markov-Belohnungsprozess -- 1.6.4 Aktionen hinzufügen -- 1.6.5 Policy -- 1.7 Zusammenfassung -- Kapitel 2: OpenAI Gym -- 2.1 Aufbau des Agenten -- 2.2 Anforderungen an Hard- und Software -- 2.3 OpenAI-Gym-API -- 2.3.1 Aktionsraum -- 2.3.2 Beobachtungsraum -- 2.3.3 Die Umgebung -- 2.3.4 Erzeugen der Umgebung -- 2.3.5 Die CartPole-Sitzung -- 2.4 Ein CartPole-Agent nach dem Zufallsprinzip -- 2.5 Zusätzliche Gym-Funktionalität: Wrapper und Monitor -- 2.5.1 Wrapper -- 2.5.2 Monitor -- 2.6 Zusammenfassung -- Kapitel 3: Deep Learning mit PyTorch -- 3.1 Tensoren -- 3.1.1 Tensoren erzeugen -- 3.1.2 Skalare Tensoren -- 3.1.3 Tensor-Operationen -- 3.1.4 GPU-Tensoren -- 3.2 Gradienten -- 3.2.1 Tensoren und Gradienten -- 3.3 NN-Bausteine -- 3.4 Benutzerdefinierte Schichten -- 3.5 Verlustfunktionen und Optimierer -- 3.5.1 Verlustfunktionen -- 3.5.2 Optimierer -- 3.6 Monitoring mit TensorBoard -- 3.6.1 Einführung in TensorBoard -- 3.6.2 Plotten -- 3.7 Beispiel: GAN für Bilder von Atari-Spielen -- 3.8 PyTorch Ignite -- 3.8.1 Konzepte -- 3.9 Zusammenfassung -- Kapitel 4: Das Kreuzentropie-Verfahren -- 4.1 Klassifikation von RL-Verfahren -- 4.2 Kreuzentropie in der Praxis -- 4.3 Kreuzentropie beim CartPole.
Umfang
1 Online-Ressource (770 Seiten)
Sprache
Deutsch
Schlagworte
RVK-Notation
  • Informatik
    • Monografien
      • Künstliche Intelligenz
        • Soft computing, Neuronale Netze, Fuzzy-Systeme
  • Informatik
    • Monografien
      • Künstliche Intelligenz
        • Allgemeines
BK-Notation
54.72 Künstliche Intelligenz
DDC-Notation
006.31
ISBN
9783747500378