AI (人工知能) のあゆみや歴史について、以下のナレッジにて記載した。
本ナレッジではそのAIのあゆみの中で生まれ、登場する、各時代のAIと関連研究について記載する。
Sponsored Links
第1次AIブーム時のAIと関連研究
- ”Logic Theorist”
- 人間の論理的推論をシュミレートすることを、意図的に設計・開発された世界初のプログラムである。
- 1955年から1956年に、”Allen Newell”, “Herbert Alexander Simon”, “John Clifford Shaw”により開発された。
- これは、数学の基礎に関する著作である ”Principia Mathematica (数学原論)” の定理を、様々な公理を総当たりで組み合わせることで証明した。
- 探索木 / ハノイの塔
- 基本的に場合分けによる探索
- 探索木には、大きく2種類ある
- 深さ優先探索
- それ以上条件分岐が出来ない階層まで探索しきることを優先。
- 幅優先探索
- 浅い階層から順次同階層を探索することを優先。最短距離は見つかるが、途中の経路をすべて保持しなければならない。
- 深さ優先探索
- プランニング
- ロボットの行動計画に利用されている
- 前提条件、行動、結果のセットで定義
- 将棋やチェス等の人工知能
- 基本は場合分けによる探索。ただしケース数が膨大な量なので、盤面を評価する仕組みを作りそのスコアが良くなるように動作。
- ケース数が少なくなる終盤の方が強くなる。
- ミニマックス法や、モンテカルロ法を利用
第2次AIブーム時のAIと関連研究
- ELIZA
- 初期の自然言語処理プログラム
- 知識がありそうな動作をする。
- エキスパートシステム
- 多くの知識をインプットし、問いに対しそれを回答する。
- 課題は多くの知識を人間がコンピュータの認識できる形でインプットしなければいけないこと。
- 専門的な知識であれば良いが、広範囲に関わる分野の曖昧な問いには対応できない。
- Cycプロジェクト
- 人間が持つあらゆる知識を集めた巨大なデータベースを構築しようとするプロジェクト
- 30年以上たった現在でも完了していない。
- オントロジー
- 知識を記述すること自体の研究。概念化の明示的な仕様。
- is-a関係
- 上位-下位の関係
- 推移律が成り立つ
- part-of関係
- 全体-部分の関係
- 推移律が難しい
- ヘヴィーウェイトオントロジー
- 人間が構成要素や意味的関係の正当性を考えて知識を記述
- ライトウェイトオントロジー
- コンピュータにデータを読み込ませて、自動で概念間の関係性を見つけ出させる。
- 正確ではない可能性もあるが、効率性重視
- ウェブマイニングやビックデータ組み合わせて、セマンティックWebやLODの研究として展開
- さらに、IBM Watsonでも利用
- 機械翻訳
- 機械翻訳は意味は複数考えられる。この時代の機械翻訳はその複数ケースの中から状況に応じてどのケースが正しそうかが判断つかない。
第3次AIブーム時のAIと関連研究 (機械学習)
- 機械学習
- 与えたデータをもとにプログラム自身がルールを自動で学習する人工知能
- フィーチャーエンジニアリング(特徴量の設計)が必要
- 特徴量を何にするかが機械学習では重要
- 概念(シニフィエ)を自ら作り出すことは出来なかった
- 教師あり学習
- 入力と出力のセットが予め用意して、入力に対し正しい出力を返すよう学習する
- 入力と出力のセットが予め用意して、入力に対し正しい出力を返すよう学習する
- 教師なし学習
- 入力だけ与え、データ内の一定のパターン等を抽出する
- 最近傍法
- 機械学習のアルゴリズムの一種
- 分類アルゴリズム
- 新規のデータを一番距離の近い似ているデータのカテゴリに分類
- ノイズに影響されやすい
- ナイーブベイズ法
- 機械学習のアルゴリズムの一種
- 分類アルゴリズム
- ベイズの定理を応用したアルゴリズム
- 与えられたデータを基に全てのカテゴリの確率を計算し、最も確率の高いものに分類
- スパムフィルタなどに利用
- 決定木
- 機械学習のアルゴリズムの一種
- 予測や分類のためアルゴリズム
- 条件分岐によりグループを分割して分類する。その際、グループが可能な限り同じ属性で構成されるように分割する。
- あまり精度は高くない
- サポートベクターマシン
- 機械学習のアルゴリズムの一種
- 分類や回帰のためアルゴリズム
- マージン (判別する境界とデータとの距離) を最大にするように識別
- 精度は高い。ただし、処理に時間がかかる。
- ニューラルネットワーク
- 機械学習のアルゴリズムの一種
- 人間の脳内の神経細胞 (ニューロン) とそのつながり (神経回路)を、数式的なモデルで表現したもの
- 第一次AIブーム時に発表されたが、インターネットやクラウドによる大量データの使用、処理能力の向上により改めて注目された。
- 学習時、間違えるたびに誤差逆伝播という手法で重み付けを変更
- 学習フェーズと予測フェーズがあり、学習には時間がかかるが予測は一瞬で可能。
第3次AIブーム時のAIと関連研究 (ディープラーニング)
- ディープラーニング (Deep Learning)
- このAIアルゴリズムにより、コンピュータにて概念を作り出せるようになった。
- 他の機械学習は特徴量は人間が決めていたが、ディープラーニングは利用するデータをAI自体を学習し、自ら特徴量を決める。
- 前述のニューラルネットの階層を深くした多階層ニューラルネットワーク
- 2006年に発表
- 2012年に物体の認識率を競う大会ILSVRCにおいて、トロント大学のチームがディープラーニングによって従来の手法より圧倒的に良い認識率を出して勝利し、衝撃を与えた。
- 2012年にGoogleがディープラーニングにより「人が教えることなく、AIが自発的に猫を認識することに成功した」と発表した。
- ディープラーニングは教師なし学習を教師あり学習的なアプローチで実施が可能
- 教師なし学習で特徴量をつくり、最後に何か分類させたい時は教師あり学習の動きをする。
- 相関する事象の相関を予めとらえておくことにより、現実の問題の学習は早くなる。
- 1層ずつ階層ごとに学習していく。
- 自己符号化器(オートエンコーダー)という情報圧縮器を用いる。
- 下記のような手法で得られる特徴量や概念の頑健性 (ロバスト性)を高めることが可能。
- 学習時、入力信号にあえてノイズを加える。
- 隠れ層のニューロンをランダムに欠落させる (ドロップアウト) 。
- 活用例として、自動車の自動運転や監視カメラでの人検出などがある。
Sponsored Links