暗号のコンパス Written by Netero

僕がめっっっちゃビビったAIツール

Life

2022年は、「AIが開花した年」といっても過言ではありません。
以前は不可能だと考えられていたAI技術が、以下のような「消費者向けアプリ」として姿を現しました。

  • チャットツール「ChatGPT」
  • 画像生成AI「MidJourney」
  • 文章生成AI「ぷれあい」

上記、AIを活用した高性能ツールがSNS上でバズを起こし、「AIと共存する社会」が到来することを実感した人は多いでしょう。

とはいえ僕は、まだまだ多くの人がAIの本当のポテンシャルに気づいてないと思っています。
AIを体験している多くの人が、AIを単なる「クリエイティブ活動のサポートツール」だと考えているからです。

そこで今回は、AIを活用した衝撃のサービスを紹介しました。
このブログ読んだ人は、めっっっちゃビビりますよ!

本記事の内容

以下の3つのツールは、めっっっちゃ衝撃的でした。

  • 死者と話せる「Re;memory」
  • 自立型致死兵器システム
  • 詐欺×ディープフェイク

Re;memory(リメモリー)

AIツール①Re;memory(リメモリー)は、亡くなった方ともう1度話すためのAIツールです。

リメモリーのサービス内容は、以下の通り。

  • ①7時間以上のインタビューを撮影
  • ②AIが人間の人格を学習
  • ③死後に人格を取り込んだAIが対話する

リメモリーでは、誕生日や結婚式のお祝いごとで、死者からのビデオメッセージを作れます。
また、AIを組み込んだデジタルフォトフレームを家に置けば、大切な人と永遠に会話ができます。
一方で「死者と話すことで過去に執着してしまう」といった問題が起きてしまいそうです。

「ハリー・ポッターと呪いの子」という映画では、ハリーは亡くなったダンブルドアの肖像画と会話して助言を受けます。
しかしその後、ハリーはマクゴナガル校長から

・ダンブルドアの肖像画はあくまでも記憶
・肖像画を本人と取り違えないこと

といった指摘を受けました。
僕ら現実世界に生きる人間も、死者に頼りすぎてはいけないというハリー・ポッターと同じ課題に直面するでしょう。

自律型致死兵器システム(LAWS)

人間を殺すためにプログラムされたAIは、自律型致死兵器システム(LAWS)と呼ばれています。

  • 致死⇛L(Lethal)
  • 自律⇛A(Autonomous)
  • 兵器⇛W(Weapons)
  • システム⇛S(Systems)

上記の略称で、LAWS。
簡単に言うと、AIを使った高性能の「殺人ロボット」です。
LAWSは、火薬・核兵器に次ぐ「第三の軍事革命」と言われています。

自律型致死兵器システムの何がヤバイかというと、

  • 感情を持たないので殺人に罪悪感を感じない。
  • 疲れないので夜も戦える。
  • 人間よりも高精度で人を殺せる。

上記の通りで、戦争が起きたら死者が増えるのは間違いありません。

殺人ロボットは、核と同じように「1国でも開発すれば、他の国も防衛のために作らなければいけない。」という特徴があります。
そのため、旧ソ連とアメリカが核兵器の開発を争ったように、水面下で殺人ロボットの開発合戦は間違いなく起こるでしょう。

「漫画の世界じゃないんだから、殺人ロボットなんて活用されないだろ。」
って思う方もいるかもしれませんが、殺人ロボットは、すでにリビアで活用されています。

 そして、本当にヤバイのは殺人ロボットへのサイバー攻撃です。

殺人ロボットが国に配備され、ハッキングされたらロボットは起動します。
少し暗いお話かもしれませんが、殺人ロボットの活用は、すでに起きている事実なので知っておいて損はないでしょう。。。

ディープフェイク

最後は、注意喚起の意味を込めて、ディープフェイクを紹介します。
ディープフェイクはAIを使って動画の中の顔の一部を入れ替える技術です。

海外の仮想通貨・NFT界隈ではディープフェイクを使った詐欺が横行しています。
詐欺の手口は以下の通り。

  • インフルエンサーが話しているような動画を作成
  • 今からこのトークンを買い煽ると説明
  • 詐欺トークンを買わせる

上記の通り。
実際に、バイナンスの責任者に見せかけたディープフェイクで荒稼ぎしている詐欺事例があります。

日本ではディープフェイクを使った詐欺が流行っていませんが、海外に遅れて「ディープフェイク詐欺」は流行する可能性が高いです。
怪しめの動画セミナー等、お気をつけください。

ちなみに、セキュリティ会社・ハルボーンの代表によると、ディープフェイクか本物の動画を見極めるために、「目」を見ることをおすすめしています。
「まばたきが不自然」らしいので、ハルボーン代表は「目を見ろ」と注意喚起していました。

AIの問題点

AIは、急成長中のテクノロジーですが、もちろん問題点もあります。

①データのかたより

収集したデータが偏っている場合、AIシステムにも偏りがでます。

②透明性の欠如

一部のAIシステムは、内側のシステムが複雑化されていて、ユーザーが理解できない可能性があります。
つまり、AIシステムがどのように意思決定をしているか不明。
AIが意思決定したと見せかけて、人間が裏側で操作することも可能です。

③プライバシーの課題

AIは、大量の個人データを収集して分析します。
個人データの活用に関するプライバシーが守られない可能性があります。

④倫理的な問題

例えば、「死者と話せるサービス」は、倫理的な問題とぶつかるでしょう。

  • 死者と話すことは、本当にその人のタメになるのか?
  • 「未来を生きる活力を奪わないか?」といった感じです。

AIによって、哲学的な問題が生じます。

⑤AIのミスによる責任

AIがミスをした場合、誰が責任を取るのでしょうか?

例えば、AI自動車が事故を起こすケースやAIの医療システムが誤作動して人が亡くなる可能性があります。
責任者は、AIの使用者か?開発者か?責任は誰が取れば良いのかが曖昧です。

AIは人間の仕事を奪うのか?

AIの発展により「私の仕事なくなるかも。」と不安を感じる人は多いでしょう。
とはいえ、僕はAIが人間の仕事を奪うことは「ない」と思っています。

理由は、以下2つ。

  • ①AIは仕事の全工程をクリアできるわけではない
  • ②AIによって、できる仕事が増える

①AIは仕事の全工程をクリアできるわけではない

仕事の工程が「1~5」まであるとするなら、AIは「3~4」を補足するツールです。

例えば、あなたがプロのレジ打ちだとしましょう。
セルフレジが誕生してもコンビニの店員がいなくならないのと同じように、

・セルフレジが稼働しているか確認
・セルフレジに対応できない業務

といった仕事は人に残されています。
AIでは、人の仕事を完璧に奪えません。

②AIによって、できる仕事が増える

AIによって仕事が増えるケースがあります。
実体験で恐縮ですが、僕は海外のweb3系企業の翻訳をしていました。
翻訳業務は、「Trados」というAIツールを使っており、0から翻訳をする必要はありません。

必要なのは、

・文章を整える
・仮想通貨の最新の知識を文章に盛り込む

といったタスクでした。

僕は英語のスペシャリストではありませんが、翻訳の仕事はできます。
AIが新しくできる仕事を作ってくれるケースもあるのです。

最後に:AIと共存する社会の到来

2014年~2018年ごろは、AIは人間がしている「単純作業」を奪うと言われていました。
なので、AIにはできない「クリエイティブな活動をしろ」といったうたい文句が横行していたのを覚えています。

2023年になって思うことは、
皮肉にも「文章やデザイン・音楽などのクリエイティブな活動」の方がAIに奪われる危機にあると感じます。

未来を正確に予測することは困難で、変化の激しい時代に生まれた僕らは、清水の舞台から飛び降りるつもりで新しいテクノロジーと向き合っていくしか生存の道はなさそうです。

この記事を最後まで読んでくれたあなたは、AIをどのように活用したいですか?