音声解析AI vs 音声合成AI はどうなるか?

2021年4月7日より3日間、東京ビッグサイト青海展示場にて春のAI Expoが開催されます。

私はAIを活用することで相続や事業承継にも使えると考えております。
そこで意気投合したのが今回AIを活用した会社さんとお付き合いすることになりました。

AIには様々な用途があり、人の感情を解析することもできたり、製品の寿命や異常検出、更に製品設計や強度の検出にも使えます。

Photo by Markus Winkler on Pexels.com

まず、相続ではどうなるかを考えていきたい。
AIを活用し、自分のコピーを作れたらどうかな?

今は出来ます

Deep AI Copy

これで自分のアバターを作り出して、予め教育させておくことであるアルゴリズムを使い、自分で判断させていくことが可能になります。
実際、これが相続の段階で法的に自分の分身と認められることはありえないのだが、ある程度のガイダンスを得ることが可能だろう

つまり経営者の場合、「おじいちゃんだったらどう判断しただろうか」という質問を答えることができるだろう。
占い師や運に任せることがなく、ある程度の論理的判断を委ねることが可能ということだ。

さて、このAIは解析する側と状況を作る側がある。

解析する側は、音声解析による、本人や相手の感情を検知し、それを数値化することで客観的判断ができる。
合成する側は、音声を作りことで、本人や相手の声をそのまま真似て、更に感情を入れ込んで熱唱したりすることが可能になる。

つまり矛楯(ホコタテ)を作ることができる。

なぜここでホコタテというかは、人の声にて感情を解析、しかも言語問わずする機能に人工知能がDeep AI Copyによって作り出した声にフィードするとどうなるか。

まず自然言語であることが大前提であり、解析する側にこちらのものが人工知能が作り出した音声だということに気づかれてはならない。
そうすると、すごく自然な感じの流れが必要となるのと、きちんとしたイントネーションを作り解析側に提供せねばならない。

そこで思い出したのがGoogle Duplexだ。

Google Duplexは2018年5月8日のGoogle I/Oで発表されたAIを活用した音声アシスタントである。
ここまで来たら完璧でもある。

https://www.androidpolice.com/2021/03/30/google-duplex-expands-to-43-us-states-coming-to-non-pixel-devices-soon/

3月30日(1週間前)すでに米国では利用解禁となっており(ルイジアナ州以外は–州民の同意と法改正が必要)ユーザは電話で色々な予約が可能となっている。

つまり、チケットマスターとかでコンサートのチケットやレストランの予約などでGoogle Duplexを使えば長い待ち時間をイライラしなくても待たなくて済む。ここまで来たら完璧だろう。

さて、今回はAIを活用して解析する技術を提供するEmpath社(東京都渋谷区)に合成音声を作り出すCrystarl Method社(東京都千代田区)の音声やGoogle Duplexを充てがって、どういう解析結果が出てくるのか興味が湧いたわけです。

結論はやってみないとわからないのだが、どういう数値を叩き出すかみたい。
これが未来の相続につながるかとも思う。

ちなみに、このような感情認識市場(エモーションツール)は2023年までには全世界で約4兆円産業になるそうだ。
そこで比べてしまうのが日本国内だけでも猫さま産業(カフェから衣装からグッズ)はすでに2兆円とのことだ。

御徒町のご近所ねこ


猫さまのほうが凄いじゃないか!国内vs世界で、この数値を叩き出していることになると(笑)

Comments are closed.