オンラインAI自習教材ガイド

著者名:多田智史 石井一夫
価格:2808円
352ページ
出版社:翔泳社
ISBN:4798145602
発売日:2016.12.17
AIの理論の理解に役立つ ★ ★ ★ ☆ ☆ AIの全体像を知るには有用
AIの実装(プログラミング)に役立つ ☆ ☆ ☆ ☆ ☆ プログラミングについての記述はない
深層学習の理解に役立つ ★ ★ ☆ ☆ ☆ 深層学習の概要を知るには有用
数学の難しさ ★ ★ ★ ☆ ☆ 数式を理解するには大学初年度程度の数学が必要
総合 ★ ★ ★ ☆ ☆
想定される読者
人工知能全般の概要を知りたい人向け
概要
本書では,自律的に判断し意思を持つような挙動を示す装置である人工知能について, 関連する様々なトピックの解説がなされる.
第1章
人工知能の歴史について述べられる. 黎明期にはチューリングによる計算機科学的な研究,生理学における脳神経系のモデル化などの研究があった. 1960年代に条件分岐による自動判定プログラムを用いたエキスパートシステムが発展し第1次人工知能ブームとなった. 限られた範囲でのみ情報処理を行う機械では,情報の取捨選択から始めると計算量が膨大になり, 課題の解決が不可能になる「フレーム問題」が指摘された. 1980年代にニューラルネットワーク(多層パーセプトロン)の研究が発展し第2次人工知能ブームとなった. 2000年代には統計的機械学習の研究が発展した. 2010年代に計算機の能力が向上し深層学習が可能になり第3次人工知能ブームとなった. 画像認識,自動運転,ECサイトでのレコメンドエンジン,医療介護支援など産業での利用が拡大している. 将来,人工知能が発達し人間の知性を超える「シンギュラリティ」が指摘されている.
第2章
条件分岐を行うプログラム(ルールベースのシステム,エキスパートシステム)について述べられる. 条件設定となるデータと処理を行うプログラムは分離され,データの方を知識ベースという. エキスパートシステムはルールを用いて推論するプログラム(推論エンジン)を用いる. エキスパートシステムの一種としてECサイトなどで類似商品を推薦するレコメンドエンジンがある. 商品の内容に基づいて推薦する方法では,データに共通して存在する要素(共起性)から関連性が定義される. 利用者の履歴に基づいて推薦する方法では,購買行動の相関分析から関連性が定義される.
第3章
自己複製の能力を持ち生きているようにふるまう人工生命のシミュレーションについて述べられる. 例として紹介されるライフゲームや感染シミュレーションでは, セルの状態が決められた法則に従って変化することにより時間の経過が表現されるので, セルオートマトンと呼ばれる. オートマトンとは刺激(入力)により反応を示す(状態が変わる)もので, ステートマシン(状態機械)とも呼ばれ,特に状態が有限個のものを有限オートマトンと呼ぶ. オートマトンは言語の構文モデルを表現する際にも用いられる. 状態の変化が確率的に起こるとき,状態を表す変数を確率過程という. 特に将来の状態が現在の状態のみから決まるとき,この確率過程をマルコフ過程という. 応用としてオセロのようなボードゲームのプログラムでコンピュータプレーヤーを作る際に, オートマトンの考え方が利用される.
第4章
回帰分析について述べられる. データが2つの変数の組(目的変数と説明変数)として与えられるとき, 散布図において直線でグループに分けられる問題を線形問題,そうでないとき非線形問題という. 2つの変数の組のデータにどのような傾向があるかをつかみ,未知のデータに対して推測することを回帰分析という. 最も基本的な回帰分析が単回帰分析(単回帰,直線回帰)であり, 直線モデルのパラメータがモデルとデータとの残差二乗和(目的関数)から解析的に求まる. 説明変数が複数ある場合を重回帰分析という. 説明変数の非線形関数を考えると残差を小さくはできるが,未知のデータに対し予測能力を失う場合がある. これを過剰適合という. データに外れ値がある場合の対処法として,説明変数に重み係数をかける, ペナルティとして残差二乗和に重み係数の二乗和を加える(L2正則化), 重み係数の絶対値を加える(L1正則化)などがある.
第5章
グラフ理論,遺伝的アルゴリズム,ニューラルネットワークについて述べられる. 接点と枝から構成されるものをグラフという. ある頂点から出発し,その頂点には戻ってこないグラフを木構造(決定木,探索木)という. 遺伝的アルゴリズムは最適化の手法の一つであり,生物の進化から着想されたものである. 脳神経細胞を数理モデル化したニューラルネットワークは, 入力信号が活性化関数により出力信号に変換される素子(形式ニューロン)を,入力層・中間層・出力層に配置したものである. ニューラルネットワークの学習には, 出力層での学習データとの誤差から中間層の重みパラメータを変化させる誤差逆伝播法が用いられる. 素子が双方向に結びつき,出力を確率で決めるものをボルツマンマシンといい, 状態の確率分布で表される情報量基準が最小になるように重みパラメータを決める.
第6章
統計的機械学習のための確率分布やベイズ推定について述べられる. 観測データには測定誤差があるので,機械学習に確率の概念が入る. データを観測する確率(尤度)を最大にするようにモデルパラメータを決定することを最尤推定という. モデルパラメータの分布(事前分布)と尤度から事後分布を決定することをベイズ推定という. 事後分布を最大にするようにモデルパラメータを決定することをMAP推定という. 事前分布に新たにパラメータを導入して,データが大局的に支配される法則の層と, 局所的な個別事情で変動している層に分離したものを階層ベイズモデルという. そこではMCMC法(マルコフ連鎖モンテカルロ法)が用いられる. モンテカルロ法はサンプルを乱数から生成することで数値計算する手法であるが, 十分なサンプル数を用意する必要がある. MCMC法は,新しいサンプルを以前に生成したサンプルに確率的に依存して生成する方法である.
第7章
統計的機械学習について述べられる. 教師なし学習では正解となる情報がついていないデータの特徴をつかむ処理が行われる. データのクラスタリングの方法としてk-means法,主成分分析がある. k-means法では,グループの数をあらかじめ決めておき,データのグルーピングを行う. 主成分分析では,いくつかある説明変数の線型結合により 特徴量のうち寄与率が大きいものだけを使ってデータを再構築(次元圧縮)する. 教師あり学習では正解となる情報がついているデータを基準にモデルを作り上げていく処理が行われる. サポートベクターマシン(SVM)では,データの分布に対する識別関数を解析的に求め,パターン認識におけるデータの分類を行う. メールのスパム判定に用いられるナイーブベイズ分類器では,各クラスの確率,クラスごとの単語の出現確率を求め, 各単語の出現確率からクラスを判別する. ランダムフォレストではランダムに選んだデータ毎に決定木をつくる.
第8章
アンサンブル学習,強化学習,転移学習について述べられる. 学習データの復元抽出をくりかえすことにより弱学習器を構築し,それらを統合して学習器をつくることをバギングという. またデータによって弱学習器を選択することをブースティングという. これらはアンサンブル学習の一種である. 外界からの入力により学習器で生成されたルール選択し,行動の結果,報酬を得ることができ, それによって学習器を更新する,これを強化学習という. ある課題に対し学習済みの学習器があり,新たな課題に対して今までの学習結果を再利用することを転移学習という.
第9章
ニューラルネットワークの層を多数にした深層学習について述べられる. 教師あり学習におけるニューラルネットワークの学習は入力層,中間層,出力層を備えた多層パーセプトロンを用い, 教師データから誤差逆伝播法により重みパラメータを更新する. 層を多数にした場合,勾配消失問題があったが,活性化関数を正規化線形関数(ReLU)にすることで克服された. 教師データに対する誤差を訓練誤差,未知のデータに対する誤差を汎化誤差 (未知データを準備するのは難しいので教師データの一部をテストデータとして,これに対する誤差をテスト誤差)という. テスト誤差が収束しないとき過学習を起こしているという. これを避けるために,重み係数に制限を加える正則化, ニューラルネットワークのユニットを確率的に選別するドロップアウトという手法がある. 画像処理に用いるフィルターをパラメータとするものを畳み込みニューラルネットワーク(CNN)といい, 画像認識に用いられる. 各時刻に入力と出力があり,さらに中間層への前時刻からの入力と次時刻への出力があるものを 再帰型ニューラルネットワーク(RNN)といい,音声認識や自然言語処理に用いられる.
第10章
画像認識,音声認識について述べられる. 古典的なパターン認識では,特徴を抽出し,得られた特徴量を学習器が用いて識別する. 深層学習では,ネットワークを設計することにより,特徴量が自動的に抽出される. 顔認識や物体認識を行う手法としてハールライク特徴を用いた方法がある. ニューラルネットワークを用いる方法では,CNNが用いられる. 音声認識では,フーリエ変換によりフォルマントを決定し音素を特定した後, 音響モデルと言語モデルを組み合わせた手法が用いられる.
第11章
自然言語処理について述べられる. 人間が普段使用する言語を自然言語という. 機械により自然言語を分析し意味の理解を行い人間にフィードバックすることを自然言語処理という. 単語分割などの形態素解析による前処理, データから特徴を抽出し情報を知識ベースに格納していく処理(知識獲得), 日本語で重要になる係り受け解析などがある.
第12章
データ,特徴量,学習器の状態などを保存するデータベースマネジメントシステムについて述べられる. 構造化されたデータを収納するものとしてリレーショナルデータベースがある. またデータベースの検索方法についても解説される.
第13章
大量のデータを処理するための分散コンピューティングについて述べられる. また機械学習のためのライブラリについても紹介される.
第14章
人工知能の将来について述べられる. 機械同士で情報のやりとりが行われるIoT(Internet of Things)デバイスの発達, 脳機能の解明,メタ認知を備えた機械の出現などの例が紹介される.
コメント
非常に広範囲の事項を扱っているので, はじめに一読しただけでは個々の事項について理解するのは難しい. 別の本で詳しく勉強する前に全体の中での位置付けを知るには有用であると思われる.