記事内にアフィリエイト広告が含まれます

もう何も信じられない!?AIで声を解析し好きなセリフを喋らせる技術が登場

ニュース
※イメージです

どんどん進化するAI、ボードゲームで有段者に勝ったり、絵を描いたり音楽を作ったりと以前では考えられないような事が現実になってきています。

今回もそんなAIのお話なのですが、なんと人の声を解析して本人が言ったようなセリフを作れるAIが開発されたそうなんです。

素晴らしいけど悪用の可能性…

様々な分野で開発や運用が進められているAI、人間では到底できないような作業を瞬時に処理したり、まるで人間のように思考するAIなど、実にさまざまな種類のものが研究・開発されていますね。

中には動画を違和感なく編集するようなものも存在するのですが、今回ご紹介するのはなんと「本人が言っているようにセリフを喋るAI」なんです

※イメージです

このAI技術は「Lyrebird」と呼ばれ、対象の人間の声を1分間聞かせる事で声の特徴や抑揚などのクセを学習し、入力された文章を「セリフ」として音声で出力します。

以前にもこういった技術はなくもなかったそうで、当時は8時間以上リスニングさせてやっとだったものがAIを導入する事でたった1分で学習してしまうという、とんでもない学習速度と利便性を実現

サイトでは実際に作られた音声で「ドナルド・トランプ大統領」と「バラク・オバマ元大統領」のサンプルボイスこと「ボイスアバター」が用意されており、下記のような動画も公開されています。

それは合成された音声のようではなく、まるで肉声をそのまま録音したかのようなクオリティで、確かに「本人が言っているよう」に聞こえました。

この技術はSiriのようなボイスアシスタントを作ったり、オーディオブックやテキストリーダー、ゲーム音声など幅広く使えると紹介されているのですが…やっぱり気になるのは悪用ですね…。

簡単に「ボイスアバター」が作れて便利な反面、偽の音声証拠などが捏造されないか、有名人の声を勝手に「ボイスアバター」として取得されないかなど、問題も多そうな技術です。

まとめ

日本の犯罪報道でも肉声が再生報道される事があり、その証拠能力は非常に高い事は皆さんも周知の通りかと思いますが、こういった音声を捏造された場合にコレを「偽物」と証明するのはなかなか難しいかと思います。

素晴らしい技術が出る度に悪用の話をするのもナンセンスなのですが、実際に悪用できそうな技術だけに心配になる部分も多いAI技術でしたね。

LINEMOLINEMO
タイトルとURLをコピーしました