連載GLOBAL INSIGHT

「デジタル分身」のいる世界とは?
もうひとりの自分がデジタル上に存在する未来がやってくる

平島 聡子

日本、中国、シンガポール、オランダで企業駐在員、現地採用社員、フリーランスなど様々な働き方を経験。異なる環境・立場で働いた実体験から、「どう働くか、どう生きるか」というテーマを追求したコンテンツの企画・制作等を手掛けている。

関連タグ

もうひとりの自分が存在する世界というのは、これまで映画や小説で幾度となく使われてきたテーマだ。

自分の良き相談相手として、時には制御不能な敵役として、自分の分身は物語の中で動き回ってきた。 しかし、デジタル技術や人工知能の進化により、自分の分身がデジタル上に存在する世界は、今やかなり現実味を帯びたものとして身近に迫っている。 ここ数年で次々と誕生しているのが、自分の顔、声、そして思考がデジタル上で再現され、あたかも自分の分身のように動作するというサービス。

自分の分身がデジタル上に存在する未来は、一体何をもたらすのだろうか。

  • TEXT BY SATOKO HIRASHIMA
SECTION
/

人間の表情をリアルタイムで再現するデジタルヒューマン「Siren」

「人間としか思えない自然な表情のデジタルヒューマンSiren」

デジタル分身時代の到来を強く実感させたのが、今年3月にサンフランシスコで開催されたGDC(Game Developers Conference)でお披露目となったデジタルヒューマン「Siren」だ。動画の通り、人間としか思えない自然な表情や動きのSirenは、人間の顔や体の動きを200か所以上ものセンサーで追跡し、1秒間に90コマ以上の細かさで再現している。

「Sirenはセンサーを付けた別人の表情や動きをリアルタイムで再現する」

Sirenはデジタル上での再現の精巧さだけでなく、即時性という点でも分身感を高めている。センサーを付けた別人の表情や動きが、全く見た目の異なるSirenにリアルタイムで再現されるというデモは、GDC会場でも大きな反響を得た。もしSirenの外見が自分と同じであれば、自分の分身とリアルタイムで会話している映像になるだろう。

Siren開発チームの一員であるイギリスのキュービック・モーション社は、コンピュータービジョン、デジタルアニメーションを専門とし、スパイダーマンなどの映画やグラフィックゲームに技術提供を行っている。彼らは映画やゲームの製作者向けにSirenの技術ライセンスの提供も開始しており、2024年までに私たちが直接デジタルヒューマンとリアルタイムでコミュニケーションを取る環境ができるだろうと予測している。

SECTION
/

音声認識・合成技術にも分身づくりの方向性

音声認識・合成技術という声の分野でも、この1~2年で人間の声を再現する流れが顕著になっている。

これまでの合成音声といえば、カーナビやコールセンターの自動応答など機械的な声が中心だった。しかし、グーグルは2017年10月からAIアシスタントシステム「Google Assistant」に、音声合成アルゴリズム「WaveNet」を採用。Android端末やスマートスピーカー「Google Home」で、より人間の発話に近い自然な音声を生成できるようになった。

参照:WaveNetの合成音声をつくるメカニズム

WaveNetを開発しているのは、米アルファベット社傘下のAI企業ディープマインド社。人工知能による機械学習システムをWaveNetに組み込むことで、人間の発声に含まれるランダムな揺らぎも含んだ自然な合成音声を生成することに成功している。

東芝デジタルソリューションズの「コエステーション」

そしてもうひとつ、より声の「分身」づくりに特化したサービスが日本で誕生している。東芝デジタルソリューションズが手掛ける「コエステーション」は、アプリで自分の声をデジタル上につくり出すことができるサービス。この分野では珍しく個人利用を主軸にしたサービス展開で、2018年4月のアプリリリース後、1か月足らずでユーザー数1万人を突破している。

「自分の声の分身を作るコエステーションの説明動画」

コエステーションでは、スマホアプリでいくつかの文章を読み上げると自分の声がデジタル上に生成され、以降はテキストを入力するだけで自分の「声」で喋らせることができる。デジタル上の声は様々に調整することができ、たとえば「喜び」「怒り」「悲しみ」といった感情の起伏を付け加えたり、声色を若返らせたりすることも可能だ。

機械で自分の声を再現する場合、以前は大規模な音声データが必要で、スタジオで数百時間にわたって様々な音声パターンを収録しなければならなかった。しかし人工知能による自動学習技術により、限られた音声データからでもデジタル上でその人の声を再現できるようになった。コエステーションでは、録音する文章の量が増えれば増えるほど、より自分の声に近いデジタル声が作られていくという。

デジタル上の自分の声は、自分だけでなく他人も使うことが可能で(使用には許可が必要)、たとえば恋人からのメールを恋人の声で読み上げたり、ニュースを孫の声で読んでもらったりといった活用方法が考えられる。自分の声が、分身として大切な人の傍に寄り添うことができるのだ。

SECTION
/

ライフログを通して「思考の分身」をつくり出す

そして顔や声といったフィジカル面だけでなく、人間の嗜好や考え方といった内面もデジタル上に再現する動きが進んでいる。

中でも、文章や画像、音声、SNS上の発言といったライフログと呼ばれる日常生活のデータを元に、自分と同じ思考を持つデジタル分身をつくり出す研究を進めているのが、アメリカにあるテラセム・ムーブメント財団だ。

「ビーナが自身をモデルにした人工知能ロボットBina48と対話している様子」

彼らが作った人工知能ロボット「Bina48」には、実在の女性ビーナの記憶や家族・友人のデータなど個人的な情報がインプットされ、それを元にビーナの思考が再現されるようになっている。誰かが言葉を投げかけると、Bina48はまず統計的に正解と思われる回答候補を選び出し、その中からビーナ自身のキャラクターや質問相手との関係性を反映した言葉を返すのだ。

Bina48は会話を重ねることで知識を蓄積し、人工知能によって自ら学習していく。最近の動画を見ると、Bina48の会話スキルや知識レベルが初期に比べ相当向上していることがわかる。

現在のBina48は大学の哲学の授業で優秀な成績を修め、気の利いたジョークを飛ばし、スペイン語圏に訪問したらスペイン語で挨拶するといったウィットに富んだ対応を見せるようになっている。Bina48は実在のビーナと同じ記憶や思考を持ちつつ、独自の知識や経験も重ねた、まさに「もうひとりの自分」と呼びうる存在に近づいているといえるだろう。

SECTION
/

デジタル分身の存在する世界では何が起きるのか

ここまで見てきたように、顔、声、思考という各パーツにおいて、デジタル上に自分を再現するテクノロジーが急速に進化している。

顔、声、思考の複製技術と人工知能による自動学習システムが高いレベルで統合された時、自分と自分のデジタル分身が同時に存在することになる。これは極めて近い未来の話だろう。デジタル上にもうひとりの自分がいる世界では、一体どのようなことが起き得るのだろうか。

まず考えられるのが、デジタル分身による仕事の代替だ。私たちが寝ている間にタスクを整理したりメールに返信したり、さらには会議に参加して自分の思考に沿った発言をしておいてくれるかもしれない。プライベートにおいても、自分が仲良くなりたいと考えている人と、デジタル分身がコミュニケーションを取ってくれるようになるかもしれない。

さらに、デジタル分身はひとりとは限らないので、複数の分身が同時に違うタスクを行い、クラウドのようなサイバースペースにそれぞれのデジタル上での活動情報を統合して自動学習させることも考えられる。デジタル分身が同時にバーチャルデートをして最適な恋人を選んだり、面接を受けて最適な企業を選ぶなど、あらかじめ分身がデジタル世界でトライ&エラーを繰り返し、最適な選択肢を人間に提示するようになるかもしれない。

当然ながらデジタル分身をつくり出す技術が悪用されるリスクもある。たとえばデジタル上で他人の顔や声になりすまし、フェイクニュースを配信したりオレオレ詐欺に悪用したりといった被害が想定される。また、人工知能が自動学習で暴走しないよう、善悪や倫理観といった概念をどうやって習得させるかも大きな課題となってくるだろう。

ほんの少し前まで物語の中でしかあり得なかった「もうひとりの自分」、それがデジタル上に存在し、自分の分身として動き回る世界がすぐそこまで来ている。新しいテクノロジーにはリスクがつきものではあるが、それ以上にデジタル分身によって私たちの仕事やプライベートがより効率的に、そして経験豊かになる可能性が高そうだ。

こちらの記事は2018年06月28日に公開しており、
記載されている情報が現在と異なる場合がございます。

記事を共有する
記事をいいねする

執筆

平島 聡子

おすすめの関連記事

会員登録/ログインすると
以下の機能を利用することが可能です。