昨今、新聞やWebなどの各メディアで、毎日のように人工知能とかIBM Watsonとかの事例が紹介されるようになっています。第3次人工知能ブームの真っ最中なので、中には眉唾ものもあるのでしょうが、注目しておきたい分野であることには違いありません。
特に私はWatsonに興味を持っているので、TechCrunchのこの記事が気になりました。
今日(米国時間6/16)、IBMは自動運転分野に大々的に参入したことを明らかにした。ただし実際に自動車を作るのではなく、自動運転に興味深い機能を提供する頭脳としての役割だ。
IBM Watsonの人工知能が電気自動車のOlliの乗客インターフェイスのベースとなる。Olliは12人乗りのミニバスで、アリゾナの自動車メーカー、Local Motorsが開発した。
Watsonは、IBMのクラウドサービスBluemixで公開されているAPIと、実際に持っている機能には差があり、IBMが言うところのコグニティブ・コンピューティング関連にはだいたいWatsonというブランド名が付くので、その全貌を理解するのは難しいものです。
ただ、自動運転分野に参入したと言っても、運転そのものをWatsonがやるわけではありません。
Watsonとして自動運転に必要となるような人工知能技術のいくつかは持っていますが、Watsonですべてができるだけの技術を持っているとは思いません。
IBMによれば「A地点からB地点に移動中に、乗客はOlliと自然な会話を行うことができる。乗客はOlliにバスの目的地だけでなく、作動の仕組や今なぜそのような運転操作を行ったのかを尋ねることができる」という。さらにOlliは食事をするのに適したレストランや付近の観光地に関する情報も教えてくれる。ただしWatsonは自動運転そのものを担当するわけではない。
ということであり、あくまで乗客との会話ができるということなのですね。
有り体に言ってしまえば、ソフトバンクのPepper君がバスに乗っているようなものです。Pepper君の頭脳をWatsonで肩代わりすることもできますから、Olliの乗客との対話部分の頭脳をWatsonが担っているという形です。
Olliは4つのWatson APIを利用している。具体的にいえば、音声をテキスト化するSpeech to Text、自然言語のクラス分類を行うNatural Language Classifier、 固有表現を抽出するEntity Extraction、逆にテキストを音声化するText to Speechだ。これらの機能を用いて、Olliは車内の30以上のセンサーから収集される膨大な情報を適切に処理することができる。
私が特に注目したのはこの記述です。WatsonのAPIはさまざまなサービスとしてまとめられているのですが、Speech To Text(STT)、Natural Language Classifier(NLC)、Text To Speech(TTS)は、既にBluemixで公開されているサービスです。
しかし、Entity Extractionというのは聞き覚えがなかったのです。
「固有表現を抽出する」ということなので、文章の中からキーワードを抽出するRelationship Extractionが近いのかなと思います。ただ、Relationship Extractionは、Bluemixでデモは提供されているのですが、APIのリファレンスもまだない状態で、具体的にどう使えるのか分からない状態なんですよね。
Entity Extractionについて、もう少し調べてみると、AlchemyAPIの中に含まれていることが分かりました。IBMは2015年にAlchemyAPI社を買収しているのですが、同社が提供していたAPIをBluemixの中でAlchemyAPIとしてまとめて提供しています。
ただ、AlchemyAPIは、既存のWatsonサービスと統合するなどして、AlchemyAPIとしては提供終了になるというパターンなので、Entity Extractionもいずれそういう運命にあるのではないかと思います。
こうした話をまとめたような、APIのロードマップ資料といったものが見当たらないので、IBMさんもその辺をはっきり出していただけると、助かるんですけどね。