logo najdou.cz

Google Brain zpřístupní výhody umělé inteligence

Hluboké učení vyvolává poslední dobou mezi vývojáři nadšení, protože nabízí novou úroveň automatizace svých systémů a procesů. Pomocí algoritmů hlubokého učení bude Google rozvíjet znalostní základnu v oblastech vyhledávání, umělé inteligence, a znalostního grafu, který propojí miliardy subjektů.

čtení zabere asi 25 minut

Hluboké učení mění způsob, jakým Google funguje

Mobilní zařízení se systémem Android, YouTube s miliardou hodin sledování každý den, nebo hledání cesty po celé planetě pomocí Map Google. Vyhledávač původně postavený na schopnosti algoritmu porozumět textu na webových stránkách nyní díky pokroku v oblasti hlubokého učení rozumí i obrázkům, fotografiím a videím. Můžete mluvit na svůj telefon nebo zařízení Google Home, které už rozlišuje mezi různými hlasy, což lidem při interakci s tímto zařízením umožňuje personalizovaný zážitek.

Ve světě zaměřeném na AI přehodnocujeme všechny naše produkty a při řešení uživatelských problémů používáme strojové učení.Sundar Pichai (@sundarpichai)

Na konferenci Google I/O oznámil generální ředitel společnosti Google Sundar Pichai spuštění služby google.ai, jejímž cílem je zpřístupnit výhody umělé inteligence všem. Google.ai je soubor produktů a týmů společnosti Alphabet se zaměřením na umělou inteligenci. Spojuje iniciativy v této oblasti do jednoho celku, který urychlí práci vývojářů. Celá společnost se zaměří na tři oblasti: výzkum, nástroje a aplikovanou AI.

Google.ai výzkum nástroje aplikovaná AI
tři oblasti, na které se zaměří Google.ai | zdroj Google

Oznámil nástroj k trénování datového modelu, automatizované strojové učení (AutoML). Oznámil také první generaci procesorů TPU, které umožňují spouštět algoritmy strojového učení rychleji a efektivněji. Tento čip, k němuž budou mít uživatelé přístup prostřednictvím cloudové výpočetní služby, je určen pro práci s hlubokými neuronovými sítěmi. Sundar Pichai ve svém projevu uvedl, že procesor a služba by měly podpořit pokrok ve všech oblastech od robotiky přes autonomní systémy až po rozpoznávání obrazu.

V rámci služby Google.ai spojujeme úsilí a týmy, abychom přinesli výhody umělé inteligence pro každého. Google (@Google)

AutoML je schopen generovat vlastní umělou inteligenci

Jedním ze způsobů, jak AI zpřístupnit, je zjednodušit vytváření modelů strojového učení, tzv. neuronových sítí. V současné době je navrhování neuronových sítí časově velmi náročné a vyžaduje odborné znalosti. Proto v Google vytvořili přístup nazvaný AutoML, díky kterému je možné neuronové sítě navrhovat. AutoML umožní statisícům vývojářů navrhovat nové neuronové sítě pro konkrétní potřeby.

Automatizované strojové učení (AutoML) je proces aplikace modelů strojového učení (ML) na reálné problémy pomocí automatizace. Konkrétně se jedná o automatizaci výběru, složení a parametrizace modelů strojového učení. Za aplikací AutoML stojí engine nazvaný Neural Architecture Search, který vynalezl průkopník v oblasti umělé inteligence Quoc Le.

AutoML umožňuje vývojářům s omezenými znalostmi strojového učení trénovat modely specifické pro jejich obchodní potřeby. Umí převádět složitá data do grafů a sestav vizualizace dat.

Cílem AutoML je řešit jeden z největších problémů, s nimiž se odvětví umělé inteligence potýká: nedostatek talentů. Odborníků, kteří umí vytvářet software pro strojové učení, je zatím málo. Na AutoML Papers najdete výukové materiály a projekty týkající se automatizovaného strojového učení.

Využití strojového učení ke zkoumání architektury neuronových sítí

Proces ručního navrhování modelů strojového učení je obtížný, protože prohledávací prostor všech možných modelů může být kombinatoricky velký. Aby tento proces navrhování modelů strojového učení učinili přístupnějším, v týmu Google Brain zkoumali způsoby, jak návrh modelů strojového učení automatizovat. Z mnoha algoritmů, které zkoušeli, se jako velmi slibné ukázaly evoluční algoritmy a algoritmy posilování učení.

model strojového učení
Architektura GoogleNet
návrh této sítě si vyžádal mnoho let experimentování | zdroj: Google

Tréninková data pro vyhledávací algoritmy

Google zkouší odstranit nevhodné výsledky vyhledávání a přepracoval svůj návod, jak hodnotit kvalitu výsledků vyhledávání pro přibližně deset tisíc svých smluvních partnerů - hodnotitelů kvality. Ten zahrnuje nový příznak rozčilujícího a urážlivého obsahu. Hodnotitelé kvality používají soubor pokynů, který má téměř dvě stě stran a který je instruuje, jak posuzovat kvalitu webových stránek a zda výsledky, které hodnotí, odpovídají potřebám těch, kteří mohou hledat na konkrétní dotazy.

Pochopení záměru vyhledávání a nalezení nejpřesnějších a nejrelevantnějších webových stránek, které odpovídají každému dotazu, umožnilo Google odlišit se od konkurence.

Výsledky, které hodnotitelé kvality označí, se používají jako tréninková data pro programátory Google, a také pro systémy strojového učení. Obsah tohoto druhu se používá k automatické identifikaci nevhodného obsahu, a k celkovému zlepšení výsledků v SERP. Řazení výsledků vyhledávání sleduji jako SEO specialista často, takže o tom lecos vím.

Neuronové sítě vykreslí obočí na míru

Tým Google Brain vytvořil generativní model obrázků s dohledatelnou pravděpodobností. Z pouhých 64 zdrojových pixelů zdánlivě extrahuje úžasné množství detailů. Samozřejmě, jak všichni víme, není možné vytvořit více detailů, než je na zdrojovém obrázku. Jak to tedy Google Brain dělá? Pomocí chytré kombinace dvou neuronových sítí.

obrázky neuronová síť
Srovnání modelů super rozlišení
vstup, Ground truth, Nearest Neighbor (superrozlišení nejbližšího souseda), GAN, bikubické převzorkování, neuronová síť ResNet L2 | zdroj: arXiv

První neuronová síť ResNet se snaží namapovat zdrojový obrázek 8×8 oproti jiným obrázkům s vysokým rozlišením. Zmenší tedy obrázky s vysokým rozlišením na 8×8 a porovná je.

Druhá neuronová síť používá implementaci PixelCNN, a snaží se přidat do zdrojového obrázku 8×8 realistické detaily s vysokým rozlišením, které odpovídají tomu, co "ví" o dané množině obrázků. Například pokud je směrem k horní části obrázku hnědý pixel, může jej předchozí síť identifikovat jako obočí: takže při zvětšení obrázku může vyplnit mezery kolekcí hnědých pixelů ve tvaru obočí. Obě sítě potřebují být pro různé typy obrázků trénovány.

K vytvoření finálního obrázku s vysokým rozlišením se výstupy z obou neuronových sítí spojí dohromady. Konečný výsledek by měl obsahovat věrohodné přidání nových detailů. Je ovšem důležité si uvědomit, že vypočtený obrázek není skutečný.

Soubor knihoven a nástrojů TensorFlow

TensorFlow není hotová umělá inteligence, ale soubor knihoven a nástrojů, se kterými komunikujete přes jazyk C++ nebo Python. Pro vytváření nástrojů umělé inteligence je to jako rozdíl mezi rozhraním příkazového řádku a moderním desktopovým operačním systémem. Úvod do TensorFlow pro hluboké učení se můžete naučit v bezplatném kurzu. Vedoucí výzkumného týmu Google Brain Jeff Dean na svém blogu poopsal prostředí strojového učení, a proč vytvořili TensorFlow a jak ho používat.

„Díky znalosti velikostí a přesných výpočtů, které se provádějí, můžeme vygenerovat optimalizovaný kus kódu, který je přizpůsoben přesně na tyto výpočty a měl by být mnohem rychlejší a také by měl mít mnohem menší velikost kódu pro mobilní aplikace.“ Jeff Dean

Za zmínku stojí i TensorFlow Lattice. Uživateli umožňuje prozkoumat, jakým způsobem strojové učení dělá rozhodnutí. Musím se ale přiznat, že jakkoli mě tento postup připadá zajímavý, nedokázal jsem mu úplně přijít na kloub.

S TensorFlow získáte něco, co se rychle škáluje a dobře funguje.

Určitou nevýhodou ale je, že pokud chcete používat jiné frameworky, například Caffe, Caffe2, CNTK, MxNet nebo Torch 7, máte smůlu. Pokud chcete provozovat pracovní zátěž na AWS, Azure, IBM nebo on-prem, máte také smůlu.

Zájem je především o všechny druhy aplikací na zpracování obrazu. Globální pojišťovací společnost vytvořila pomocí TensorFlow porovnávání a analýzu obrázků k předpovídání ztrát při autonehodách svých klientů. V Japonsku po vyškolení stávajících IT inženýrů v základech ML vznikl systém rozpoznávání obrazu automobilů poháněný TensorFlow.

Jak si vytvořit vlastní umělou inteligenci

Důležité je uvědomit si, že AI se neprogramuje, ale trénuje neboli učí. Modely ML můžete vytvářet také díky vlastním nástrojům v rámci jednotné platformy umělé inteligence Vertex AI. Prostřednictvím Vertex AI Workbench je Vertex AI nativně integrován s BigQuery, Dataproc a Spark. Díky BigQuery ML a Vertex AI Workbench můžete vytvářet a spouštět modely strojového učení v BigQuery pomocí standardních dotazů SQL na stávajících nástrojích business intelligence a tabulkách nebo exportovat datové sady z BigQuery přímo do Vertex AI Workbench a spouštět své modely odtud. Pomocí nástroje Vertex Data Labeling lze generovat vysoce přesné štítky pro sbírku dat. Data mining následně vede ke zvýšení příjmů a snížení nákladů.

Chcete-li vytvořit umělou inteligenci, musíte určit problém, který se snažíte vyřešit, shromáždit správná data, vytvořit algoritmy, vycvičit model umělé inteligence, vybrat správnou platformu, zvolit programovací jazyk a nakonec nasadit a monitorovat fungování umělé inteligence.

To bude zajímat podniky, které ze svých dat vytěží větší hodnotu a budou moci použít analytiku pro zlepšení rozhodování.

Programovací jazyky pro strojové učení

Prvním praktickým programovacím jazykem byl funkcionální jazyk Lisp, který koncem 50. let 20. století vyvinul John McCarthy. Dnes už ale máte na výběr - Python, R, Java, C++, Haskell, Golang, Julia, které slouží k vytváření a implementaci modelů. Python se ukázal jako jeden z nejefektivnějších programovacích jazyků pro řešení AI a ML, a GitHub obsahuje tisíce projektů, které ke komunikaci s TensorFlow Python používají.

Dokážou se učit jako člověk

Umělá obecná inteligence (AGI) je schopnost pochopit nebo se naučit intelektuální úkol, který může řešit člověk. Algoritmy strojového učení se stále zdokonalují a umožňují počítačům učit se z minulých zkušeností a podle nich upravovat budoucí reakce. Tento proces je podobný způsobu, jakým se učí lidé, i když algoritmus nemá stejný typ obecné inteligence, jakou lidé používají. Schopnost zapamatovat si staré dovednosti a použít je při řešení nových úkolů je pro člověka přirozená. Umělá inteligence však není schopna obecné inteligence, kterou lidé využívají při řešení nových úkolů; její využití minulých zkušeností je omezenější. Ovšem i na tomto poli dochází ke zlepšení. Neuronové sítě vyvinuté společností DeepMind se ujaly různých úkolů, a zvládly je téměř stejně dobře jako člověk. DeepMind zkoušel neuronové sítě vystavit i sociálním dilematům.

Umělá inteligence už nezapomíná, jak řešila minulé problémy, a využívá tyto znalosti k řešení nových. Minulé zkušenosti však využívá jinak než člověk.

V umělou obecnou inteligenci nevěří třeba Gary Kasparov, nejlepší hráč šachů v historii, který svedl zápas s Deep Blue, šachovým superpočítačem IBM. Média zápas popisovala jako vítězství stroje nad člověkem. Deep Blue ale nebyl skutečnou umělou inteligencí, analyzoval všechny možné šachové tahy pomocí algoritmu hrubé síly, a byl to spíše expertní systém. Stručně řečeno, expertní systém napodobuje rozhodovací chování člověka. Konkrétně se jedná o experty v nějakém oboru. Expertní systémy jsou navrženy tak, aby řešily problémy prostřednictvím souborů znalostí - spíše než procedurální kód provádějí funkci if, then a way of operation. Architektura použitá v Deep Blue byla později použita k odhalování skrytých vztahů a vzorců ve velkých databázích.

„Nevěřím v AGI. Nevěřím, že stroje jsou schopny přenášet znalosti z jednoho otevřeného systému do druhého. Takže stroje budou dominovat v uzavřených systémech, ať už jde o hry, nebo jakýkoli jiný svět navržený lidmi.“ Gary Kasparov

Umělou obecnou inteligenci popisuje ve svojí knize Superintelligence švédský filosof Nick Bostrom. Rozebírá v ní možná rizika a jak to udělat, aby měla eticky relevantní rozhodovací procedury. V češtině jí vydalo nakladatelství Prostor. Jak vidíte, literatura ohledně AI už není zaměřená na úzký okruh odborníků, ale může zaujmout celou společnost.

Úspěch v AI vyvolá civilizační trajektorii. Nick Bostrom

Měli bychom se obávat umělé inteligence?

AI není hrozba. Robotika a umělá inteligence zvýší kvalitu života a změní pracovní návyky. Další vývoj nejspíš povede k hlubšímu pochopení principů lidského myšlení.

Existenční hrozbou pro společnost není umělá inteligence, ale automatizace. Martin Slavíček

A já se těším na nové trendy v Business Intelligence. Kvalitní data mining, rozmanité vizualizace zpracovaných dat v podobě grafů a diagramů, zpracování zdlouhavých úloh, to všechno SEO analytik ocení. Takže AI je skutečná, konečně můžeme odstartovat závod algoritmů. Technologický průmysl je v oblasti umělé inteligence na prahu revoluce.

aktualizace 12. prosince 2017