Deep learning i modelowanie generatywne. Jak nauczyć komputer malowania, pisania, komponowania i grania

39.09

Opis

Techniki uczenia głębokiego rozwijają się w imponującym tempie, a sieci neuronowe znajdują zastosowanie w przeróżnych branżach. Coraz częściej komputer wykonuje zadania, które do niedawna były zarezerwowane dla człowieka. Dobrym przykładem jest tworzenie dzieł sztuki: ostatnie postępy w dziedzinie modelowania generatywnego sprawiają, że maszyny tworzą oryginalne obrazy w określonym stylu, piszą spójne akapity tekstu, komponują przyjemną w odbiorze muzykę i generują prawdopodobne scenariusze zdarzeń. Ta „generatywna rewolucja” już się zaczęła, a jej efekty przekraczają najśmielsze wyobrażenia.Ta książka jest praktycznym przewodnikiem przeznaczonym dla inżynierów uczenia maszynowego i analityków danych. W jasny i przystępny sposób omówiono w niej zasadnicze zagadnienia teorii modelowania generatywnego, a następnie zaprezentowano techniki stosowane do budowy modeli generatywnych, włącznie z ogólnym opisem uczenia głębokiego, wariacyjnych autoenkoderów i generatywnych sieci antagonistycznych (GAN). Na tej podstawie – z wykorzystaniem biblioteki Keras – pokazano wewnętrzne funkcjonowanie każdej z tych technik, łącznie z najbardziej nowatorskimi architekturami. Opisano krok po kroku sposoby rozwiązywania takich twórczych zadań jak malowanie, pisanie i komponowanie muzyki, a także zastosowania modelowania generatywnego do optymalizacji strategii grania w gry (modele World).W książce między innymi:działanie autoenkoderów wariacyjnychtworzenie sieci GAN, w tym CycleGAN i MuseGANrekurencyjne modele generatywne do tworzenia tekstu oraz mechanizmy uwagimodele generatywne w środowiskach uczenia przez wzmacnianiearchitektura Transformer (BERT, GPT-2) oraz modele generowania obrazuCzy potrafisz stworzyć… twórcę?Spis treści:Przedmowa 8CZĘŚĆ I. WPROWADZENIE DO GENERATYWNEGO UCZENIA GŁĘBOKIEGO 131. Modelowanie generatywne 15Czym jest modelowanie generatywne? 15Modelowanie generatywne a dyskryminatywne 16Postępy w uczeniu maszynowym 18Powstanie modelowania generatywnego 19Framework modelowania generatywnego 21Probabilistyczne modele generatywne 23Witaj, Zlemio! 25Twój pierwszy probabilistyczny model generatywny 26Naiwny model Bayesa 29Witaj, Zlemio! Kontynuacja 31Wyzwania modelowania generatywnego 33Uczenie reprezentacji 34Konfiguracja środowiska 37Podsumowanie 392. Uczenie głębokie 41Dane ustrukturyzowane i nieustrukturyzowane 41Głębokie sieci neuronowe 42Keras i TensorFlow 44Twoja pierwsza głęboka sieć neuronowa 45Ładowanie danych 45Budowanie modelu 46Kompilacja modelu 50Szkolenie modelu 51Ocena modelu 52Usprawnianie modelu 54Warstwy konwolucyjne 55Normalizacja partii 59Warstwy Dropout 61Połączenie warstw w całość 63Podsumowanie 663. Autoenkodery wariacyjne 67Wystawa 67Autoenkodery 70Twój pierwszy autoenkoder 71Koder 71Dekoder 73Połączenie kodera z dekoderem 75Analiza autoenkodera 76Wariacyjna wystawa sztuki 78Budowanie autoenkodera wariacyjnego 80Koder 80Funkcja strat 85Analiza autoenkodera wariacyjnego 86Korzystanie z VAE do generowania twarzy 87Szkolenie VAE 88Analiza VAE 88Generowanie nowych twarzy 91Arytmetyka przestrzeni ukrytej 92Morfing twarzy 93Podsumowanie 944. Sieci GAN 95Ganimale 95Wprowadzenie do sieci GAN 97Twoja pierwsza sieć GAN 98Dyskryminator 99Generator 101Szkolenie sieci GAN 104Wyzwania dla sieci GAN 108Oscylacyjne straty 109Załamanie trybu 109Mylące wartości funkcji strat 110Hiperparametry 110Stawianie czoła wyzwaniom związanym z GAN 111Model GAN Wassersteina 111Funkcja straty Wassersteina 111Ograniczenie Lipschitza 113Obcinanie wag 113Szkolenie sieci WGAN 114Analiza sieci WGAN 115WGAN-GP 116Funkcja straty z ograniczeniem gradientu 116Analiza sieci WGAN-GP 120Podsumowanie 121CZĘŚĆ II. UCZENIE KOMPUTERÓW MALOWANIA, PISANIA, KOMPONOWANIA I GRANIA 1235. Malowanie 125Jabłka i pomarańcze 126CycleGAN 128Twoja pierwsza sieć CycleGAN 130Przegląd 130Generatory (U-Net) 131Dyskryminatory 134Kompilacja modelu CycleGAN 136Szkolenie sieci CycleGAN 137Analiza sieci CycleGAN 138Tworzenie sieci CycleGAN, która maluje w stylu Moneta 140Generatory (ResNet) 141Analiza zaprojektowanej sieci CycleGAN 142Neuronowy transfer stylu 143Utrata treści 145Utrata stylu 147Całkowita utrata wariancji 149Uruchomienie neuronowego transferu stylów 150Analiza modelu neuronowego transferu stylu 151Podsumowanie 1526. Pisanie 153Literackie Stowarzyszenie Twórczych Miernot 154Sieci LSTM 155Twoja pierwsza sieć LSTM 156Tokenizacja 156Budowanie zestawu danych 158Architektura LSTM 159Warstwa Embedding 160Warstwa LSTM 161Komórka LSTM 162Generowanie nowego tekstu 164Rozszerzenia sieci RNN 168Stos sieci rekurencyjnych 168Sieci GRU 169Komórki dwukierunkowe 170Modele koder-dekoder 170Generator pytań i odpowiedzi 172Zestaw danych pytanie – odpowiedź 173Architektura modelu 174Wnioskowanie 177Wyniki modelu 179Podsumowanie 1807. Komponowanie muzyki 181Wymagania wstępne 182Notacja muzyczna 182Twoja pierwsza sieć RNN do generowania muzyki 184Mechanizm uwagi 185Budowanie mechanizmu uwagi w Keras 187Analiza sieci RNN z mechanizmem uwagi 190Mechanizm uwagi w sieciach koder-dekoder 195Generowanie polifonicznej muzyki 199MuseGAN 199Twoja pierwsza sieć MuseGAN 201Generator sieci MuseGAN 203Akordy, styl, melodia i ścieżki 205Generator taktów 207Połączenie architektury w całość 208Krytyk 209Analiza sieci MuseGAN 210Podsumowanie 2128. Gry 213Uczenie przez wzmacnianie 213OpenAI Gym 215Architektura modelu świata 217Autoenkoder wariacyjny 217MDN-RNN 218Kontroler 219Konfiguracja 219Przegląd procesu szkolenia 220Zbieranie losowych danych rozgrywki 221Szkolenie VAE 222Architektura VAE 224Eksploracja VAE 226Pobieranie danych do szkolenia sieci RNN 228Szkolenie sieci MDN-RNN 229Architektura sieci MDN-RNN 230Próbkowanie następnego wektora z i wartości nagrody z sieci MDN-RNN 231Funkcja straty sieci MDN-RNN 232Szkolenie kontrolera 233Architektura kontrolera 234CMA-ES 234Współbieżny algorytm CMA-ES 236Wyjście ze szkolenia kontrolera 238Szkolenie „we śnie” 239Szkolenie kontrolera „we śnie” 239Wyzwania związane ze szkoleniem „we śnie” 241Podsumowanie 2429. Przyszłość modelowania generatywnego 243Pięć lat postępu 243Transformer 245Kodowanie pozycyjne 246Warstwy Multi-head Attention 246Dekoder 249Analiza modelu Transformer 249BERT 250GPT-2 251MuseNet 252Postępy w generowaniu obrazów 252ProGAN 252SAGAN 254BigGAN 255StyleGAN 256Zastosowania modelowania generatywnego 259Sztuka AI 259Muzyka AI 25910. Zakończenie 261O autorze: David Foster jest współzałożycielem Applied Data Science i ekspertem w dziedzinie inżynierii danych. Wygrał kilka międzynarodowych konkursów związanych z uczeniem maszynowym. Jest aktywnym uczestnikiem społeczności internetowych skupionych wokół nauki o danych.

Informatyka

split payment co można płacić z rachunku vat, pracownicy budowlani pl, druk e115 norwegia, mapy polski google, polska szwecja godzina, spr nr tel, płatne drogi na węgrzech, święta niemcy 2022, pokoje kawalerki do wynajęcia, legnica 112, 1000zł na wakacje, szczecin świnoujście pociągi

yyyyy