ディープラーニングの凄さが証明された瞬間
画像認識の精度を競う大会、ILSVRC(Imaging Large Scale Visual Recgnition Challenge)で、トロント大学のSuper Visionが優勝した。
それまでは、機械学習による画像認識が主流で、画像の特徴量を人間が与えることで行なっていた。
したがって、画像認識の精度そのものも、特徴量の選び方によって左右されていた。
と同時に、人間が特徴量を選ぶこと自体に、限界があり、画像認識の精度をコンマ数パーセントを争うような時代であり、SuperVisionが登場する前年のエラー率(認識を誤る割合)は、26%だった。
スポンサーリンク
しかし、SuperVisionは、15.3%という脅威的なエラー率で、2位の東京大学(ISI)の26.1%を10%近く引き離して優勝した。
SuperVisionは、それまでの主流であった特徴量による機械学習ではなく、ディープラーニングによる機械学習を開発することができたためだ。
2012年以降、画像認識の主流はディープラーニングへと替わり、2015年には人間自身の画像認識エラー率である4%をついに超え、3%代に突入した。
ニュラルネットワークとディープラーニング
機会学習はプログラム自身が学習する仕組みであるが、方法がいくつかある。
- k平均法
- 決定木
- サポートベクターマシン
- ニューラルネットワーク(単純パーセプトロン)
- ディープラーニング
ニューラルネットワーク
ニューラルネットワークは、フランク・ローゼンブラットが1958年に提唱した、単純パーセプトロンがはじまりとされている。
機械学習の一つで、人間の神経回路を擬似的に実現するものである。
スポンサーリンク
ディープラーニング
ニューラルネットワークを多層にしたものが、ディープラーニング(深層学習)である。
ニューラルネットワークを多層化すること自体は古くから考えられていたが、マービン・ミンスキーによって、特定の条件下での単純パーセプトロンは、単純な問題しか解けないことが指摘されていた。
しかし、1986年に、バックプロパゲーション(誤差逆伝播学習法)という方法によって、この問題が解決できることが示された。
また、入力と同じものを出力するように学習する、自己符号化器の研究をきっかけに、より多層化(深層)しても学習の精度をあげられるようになった。
Markdownでプレゼン資料作るなら、Marpがベスト
最近、めっきりPowerPointとかいうアプリケーションを使わなくなった。
Markdown形式で書いたものをプレゼン用に変換してくれるWebアプリや、アプリケーションが多くなってきているから。
そんな中、つい最近、Marpなるアプリケーションに出会った。
yhatt.github.io
このアプリケーションは、
- Electronによるマルチプラットフォーム製
- PDFに変換してくれる
- 区切り線で改ページ
とにかくシンプルであるが、これだけで十分。
いや、むしろ余計なものがなく、サクサク動いてくれるのでありがたい。
スポンサーリンク
ささっとMarkdownで書いて、PDF化して、全画面表示でプロジェクターに写せば、すぐにプレゼンができる。
あるいは、議事録的なものもPDF化してしまえば、エディタをインストールしていないお偉いさんにも、配布できる。
これは、本当に使える。
そもそも機械学習とは何なのか
機械学習の定義について整理してみる。
ウィキペディアには、このように書かれている。
機械学習(きかいがくしゅう、英: machine learning)とは、人工知能における研究課題の一つで、人間が自然に行っている学習能力と同様の機能をコンピュータで実現しようとする技術・手法のことである。 つまり、人の手や、プログラムに組み込んだアルゴリズムに頼らず、コンピュータ自身が学習していくことをさす。
コンピュータが学習の元にするのは、多くのデータである。
多くのデータを高速に処理する、というコンピュータの特性を活かし、そこから学習結果を得ている。
そこで重要になるのが、データの数。
サンプルデータが多ければ多いほど、期待する学習結果が得られやすくなる。
スポンサーリンク
これは、1990年代にインターネットが普及し、多くのデータがネットワーク上に蓄積されるようになったことで、機械学習の研究が飛躍的に進んだといわれている。
今や、機械学習とビッグデータは切っても切れない関係になったと言ってよい。
現在でも、ビッグデータによる機械学習の成果として、スパムメールフィルタや、レコメンデーションエンジンなどで利用されている。
ワトソン、東ロボくんの挑戦
ワトソン
IBMが開発し、2011年にアメリカのクイズ番組で、歴代のチャンピオンと対戦して勝利したことで話題になった。
ワトソンは、Question-Answeringという研究分野の成果で、ウィキペディアの情報をもとにライトウェイトオントロジーを生成して解答を行っていた。
まず、問題を分析し、解答候補を複数選択。
問題の整合性、条件が各解答候補とどの程度マッチングしているかをチェックし、スコアを算出し、最終解答を選択。
つまり、問題の意味そのものを意識しているのではなく、問題に含まれているキーワードから、解答を高速に検索している、比較的簡単な仕組みで動作している。
ワトソン同様、データを活用しながらライトウェイトオントロジーを生成する仕組みは、現在では、コールセンター、人材マッチング、広告など、多くの分野で活用されている。
スポンサーリンク
東ロボくん
東大を目指す人工知能として、東ロボくんが2011年から2016年にかけて研究されていた。
東ロボくんは、模試で偏差値57.8をマークし、私大合格程度の水準にまで達することができた。
しかし、東ロボくんも、ワトソン同様、問題の意味そのものを理解しているわけではなく、読解力に問題があり、東大の合格水準に到達するのは難しいという判断から、2016年に開発が凍結された。
オントロジーによる知識体系化方法論
一般常識をコンピュータに取り込むうえで、記述や共有の難しさが表面化するようになり、エキスパートシステムにおける開発と保守のコストが問題視されるようになった。
そこで、知識を体系化する方法について研究されるようになり、オントロジーという方法論が注目されるようになった。
オントロジーは本来、哲学用語で存在論を意味する。
人工知能におけるオントロジーは、トム・グルーパーによる概念化の明示的な仕様という定義が広く受け入れられている。
この仕様は、
- 言葉(語彙)
- 意味
- それらの関係性
を、明確な約束事として、定義している。
スポンサーリンク
ヘビーウェイトオントロジー
ヘビーウェイトオントロジー(重量オントロジー)とは、その構成要素と意味的関係の正当性について、哲学的な考察が必要となる。
人間が関わる必要が多くなる傾向が強く、多くの時間とコストがかかる。
Cycプロジェクトが34年以上続いているのが、この一例といえる。
ライトウェイトオントロジー
ライトウェイトオントロジー(軽量オントロジー)とは、完全性は問わず、使えるものであればよい、という考え方に基づいており、その構成要素と意味的関係の正当性について深く考察する必要が少なくなる傾向が強い。
思想としては、コンピュータ概念間の関係性を自動で見つける、という取り組みと相性がよい。
これは、
- ウェブマイニング:ウェブデータを解析して知識を取り出す
- データマイニング:ビッグデータを解析して知識を取り出す
などに利用されている。
あらゆる常識をコンピュータに取り込むプロジェクト
より多く、より広範囲な一般常識をコンピュータに取り込むために、Cyc(サイク)プロジェクトが、1984年、ダグラス・レナートによって始められた。
スポンサーリンク
Cycプロジェクトでは、一般常識をひたすら入力していく作業だが、プロジェクトの開始から34年経った現在でも、続いている。
2001年より、知識ベースの一部がAPIとして公開されている。
Dev Center (dev.cyc.com) – Welcome