関連記事

人工知能は現在、誤差逆伝播法という引き算の思考まで辿りついている

最近は人工知能の発達具合や人工知能が人間のどんな仕事を奪っていくのか

ということが、よくニュースなどで取り上げられます。

コンピュータの進歩の早さはムーアの法則で進んでいるとか指数関数的に進

歩していくといった言葉がありますが、では具体的にどこまで進んでいるの

か、今はどういったことができるのでしょうか。

どうやら現在は「誤差逆伝播法」という「引き算の思考」まで辿りついてい

るようです。

このブログでは以下のような過去記事を書いています。

ここではNHK出版新書から出された羽生善治さんの『人工知能の核心』にお

いて、アマゾンのレビューについて思ったことを書いた記事です。

この記事ではまだ実際に本書を読んでいたわけではなかったのですが、今回

は読む機会がありました。一度一通り読んでみまして気づいたことを書いて

いってみます。

はじめに

羽生善治さんの『人工知能の核心』という本は過去記事でも書いたように、

あらすじやアマゾンのレビューの内容から非常に興味を持っていました。

実際読んでみて多くの新しい視点を持てるようになったのですが、その中で

も誤差逆伝播法という言葉が印象に残りました。

この言葉を説明する前に、人工知能やコンピュータがなぜここまで性能を高

められたのかという点について簡単に確認していってみます。

人工知能がここまで発展した3つの要因

人工知能の現在までの発展には大きく3つの要因があると言われています。

本書ではそれを「ビッグデータ」「ハードウェア」「ディープラーニング」

にあるとしています。ではなぜこれらなのか。

「ビッグデータ」

人工知能は学習するデータがたくさんあればあるほど強く優秀になってい

きます。1997年にIBMが開発したチェスのプログラムであるディープ・ブル

ーが当時の世界チャンピオン、ロシアのガルリ・カスパロフを破った試合

がありました。

この時にディープ・ブルーは100万局以上のデータベースが搭載されていて

、1秒間に2億局面を思考できたそうです。これが人工知能が発展した3つの

要因の中の「ビッグデータ」の事例です。

「ハードウェア」

2つ目の要因はハードウェアです。このブログでは以下のような過去記事を

書いています。

コンピュータの発展の歴史というのは、ムーアの法則とか指数関数的に増

加するという言葉があるように、最初の頃はたいしたことはありませんで

した。

ですが、時間が経つにつれて、特に最近ではコンピュータの成長の伸びが

爆発的なものになってきています。

それが私たちの周りの環境において、例えばソフトバンクのペッパーやセ

ルフレジ、その他の今までにない機械による生活環境の変化など、目に見

える程の形になってきています。

これ以外にも、特に最近の事例では、2016年3月にGoogleが開発した囲碁AI

の「アルファ碁(AlphaGo)」が世界トップ棋士である韓国のイ・セドル氏

に勝利を収めました。

この背景には、アルファ碁を学習させる際に膨大なデータを処理するソフト

ウェアとそれを支える強力なハードウェアやノウハウがあったようです。

「ディープラーニング」

人工知能がここまで発展した3つの要因の中の3つ目がソフトの部分である、

「ディープラーニング/深層学習」です。これは最近注目されてきた技術で

す。

これは、ニューラルネットワークという人間の脳が学習する仕組みを真似

した手法です。人間の神経細胞(ニューロン)は電気信号で互いに情報伝

達を行っていて、その接合部が「シナプス」と言われています。

人間のニューロンが学習によってシナプスの結合強度を変化させるように、

人工知能にも学習する過程で重みづけを変化させ、最適な値を出力するよ

うに調整することで、精度を高めていきます。

このシナプス結合によって知性を表現するという発想を、数学的にモデル

化したのがニューラルネットワークです。

ディープラーニングという手法についてそれほど専門的に説明することは

できないのですが、この手法によって人工知能がある一定の物事に対して

「特徴量」、つまり何らかの意味ある共通点を見いだせるようになったと

言われています。

ディープラーニングは、膨大なデータをもとに特徴量を見つけ出します。

人間が特徴量を設計するのではなく、コンピュータが自ら高次の特徴量を

獲得して、例えば最近の事例では猫の画像を認識できるようになったり、

それ以外にも映像、音声の高度な認識ができるようになっていきました。

ここからがこの記事の本題ですが、このディープラーニングの過程に「誤

差逆伝播法」が含まれている、ということです。この手法が人工知能の発

展において非常に大きな可能性があるようです。