私たちの未来の人工知能支配者には抵抗運動が必要です

コメント

人工知能は急速に進歩しており、科学者でさえ追いつくのが難しいと感じています。 昨年、機械学習アルゴリズムが初歩的な動画や見事な偽の写真を生成し始めました。 彼らはコードを書いています。 将来的には、2022 年を振り返ることになるでしょう。AI が情報処理からコンテンツの作成、そして多くの人間に移行した年となるでしょう。

しかし、AIが人類の種の破壊に向けて一歩を踏み出した年として、それを振り返るとどうなるでしょうか? 大げさでばかげているように聞こえるかもしれませんが、ビル ゲイツ、イーロン マスク、スティーブン ホーキングの著名人、そしてアラン チューリングにまでさかのぼりますが、機械が知性で人間を凌駕する世界での人間の運命について、私は懸念を表明しました。マスクは次のように述べています。 AIは核弾頭よりも危険になりつつありました。

結局のところ、人間は知能の低い種を特にうまく扱うわけではないので、人間の行動のすべての側面を反映するデータに基づいてユビキタスに訓練されたコンピューターは、伝説的なコンピューターとして「私たちの目標よりも先に目標を設定する」ことはできないと誰が言いますか?科学者のマービン・ミンスキーはかつて.

さわやかに、良いニュースがあります。 より多くの科学者が、ディープ ラーニング システムの透明性と測定可能性を高めようとしています。 その勢いは止まらない。 これらのプログラムが金融市場、ソーシャル メディア、サプライ チェーンでますます高度になるにつれて、テクノロジー企業は機能よりも AI の安全性を優先し始める必要があります。

ロンドンのベンチャー キャピタル投資家である Ian Hogarth と Nathan Benaich が毎年作成している 2021 State of AI レポートによると、昨年、世界の主要な AI ラボ全体で約 100 人のフルタイムの研究者が安全なシステムの構築に取り組んでいました。 今年の彼らのレポートによると、フルタイムで AI の安全性に取り組んでいる研究者はまだ約 300 人しかいないことがわかりました。

「これは非常に低い数字です」と Hogarth は、AI の将来の脅威について今週私と Twitter Spaces で話し合ったときに言いました。 「これらのシステムの調整に取り組んでいる人がほとんどいないだけでなく、それは一種のワイルド ウェストでもあります。」

ホガース氏は、過去 1 年間に、オープンソース グループが AI ツールや研究を次々と生み出してきたことに言及していました。オープン。 たとえば、2021 年 8 月、コミュニティ主導の組織である EleutherAI は、GPT-Neo と呼ばれる、ほぼすべての主題について現実的なコメントやエッセイを書くことができる強力なツールの公開バージョンを開発しました。 GPT-3 と呼ばれる元のツールは OpenAI によって開発されました。 OpenAI は Musk が共同設立し、Microsoft Corp が大部分の資金を提供している会社です。 強力なシステムへのアクセスが制限されています。

そして今年、OpenAI が DALL-E 2 と呼ばれる革新的な画像生成システムで AI コミュニティに感銘を与えてから数か月後、Stable Diffusion と呼ばれるオープンソース企業がツールの独自バージョンを無料で公開しました。

オープンソース ソフトウェアの利点の 1 つは、公開することで、より多くの人々がその非効率性を常に調査していることです。 そのため、Linux は歴史的に、一般に公開されているオペレーティング システムの中で最も安全なオペレーティング システムの 1 つです。

しかし、強力な AI システムを公開すると、悪用されるリスクも高まります。 AI がウイルスや核汚染と同じくらい有害な可能性がある場合、その開発を集中化することはおそらく理にかなっています。 結局のところ、ウイルスはバイオセーフティラボで精査され、ウランは慎重に制限された環境で濃縮されます. ウイルスと原子力の研究は規制によって監督されていますが、政府は AI の急速なペースに遅れをとっているため、その開発に関する明確なガイドラインはまだありません。

「私たちは両方の世界で最悪の事態に直面しています」と Hogarth 氏は言います。 AI は、オープンに構築されることで悪用される危険性がありますが、密室で構築された場合にも、何が起こっているかを監視する人は誰もいません。

少なくとも今のところ、人間の目標と「一致」する AI システムの設計に関する成長分野である AI の調整に注目が集まっていることは心強いことです。 Alphabet Inc. の DeepMind や OpenAI などの主要な AI 企業には、AI の連携に取り組む複数のチームがあり、これらの企業の多くの研究者が独自のスタートアップを立ち上げており、その中には AI の安全性を高めることに重点を置いているものもあります。 その中には、創業チームが OpenAI を離れ、今年初めに投資家から 5 億 8000 万ドルを調達したサンフランシスコを拠点とする Anthropic や、Github Inc. の創業者である Stripe Inc. から最近支援を受けたロンドンを拠点とする Conjecture が含まれます。 およびFTX Trading Ltd.

推測は、AI が今後 5 年以内に人間の知性と同等に到達し、その現在の軌道が人類にとって破局をもたらすという仮定の下で機能しています。

しかし、Conjecture の最高経営責任者である Connor Leahy に、そもそもなぜ AI が人間を傷つけたいのかと尋ねると、彼は率直に答えました。 「人間が水力発電ダムを建設するために谷を氾濫させたいと想像してみてください。谷には蟻塚があります」と彼は言いました。 「これは人間の建設を止めることはできず、蟻塚はすぐに水浸しになります。 アリを傷つけようと考えた人間はいませんでした。 彼らはより多くのエネルギーが欲しかっただけであり、これがその目標を達成するための最も効率的な方法でした. 同様に、自律型 AI は、目標を達成するために、より多くのエネルギー、より高速な通信、およびより多くの知性を必要とします。」

Leahy は、その暗い未来を防ぐために、世界には「賭けのポートフォリオ」が必要であると述べています。これには、ディープ ラーニング アルゴリズムを精査してアルゴリズムがどのように意思決定を行っているかをよりよく理解し、AI に人間に似た推論を与える試みが含まれます。

Leahy の懸念は誇張されているように見えますが、AI が人間の利益と完全に一致する道を進んでいないことは明らかです。 チャットボットを構築するための最近の取り組みをいくつか見てみましょう。 Microsoft は、リリースから数時間以内に人種差別的で性的なメッセージを投稿した後、Twitter ユーザーとのやり取りから学習した 2016 年のボット Tay を放棄しました。 今年8月、メタ・プラットフォームズはは、ドナルド・トランプがまだ大統領であり、インターネット上の公開テキストで訓練されていると主張するチャットボットをリリースしました。

AI がいつの日か金融市場に大混乱をもたらすのか、それとも食品サプライ チェーンに大打撃を与えるのかは誰にもわかりません。 しかし、ソーシャル メディアを介して人間同士が対立する可能性があります。これは、間違いなくすでに起こっていることです。 Twitter Inc. で人々に投稿を推奨する強力な AI システム。 と Facebook は、私たちの関与を促進することを目的としています。 「AI との連携」に関しては、これらのインセンティブを変更することから始めるのがよいでしょう。

ブルームバーグの意見の詳細:

• 10 のチャートで語られる Tech のひどい、ひどい 1 週間: Tim Culpan

• Wile E. Coyote テクノロジーが崖から飛び降りる瞬間: John Authers

• Microsoft の AI アート ツールは役に立つかもしれない: Parmy Olson

(第 5 段落の Nathan Benaich の姓のスペルを修正します。)

このコラムは、必ずしも編集委員会またはブルームバーグ LP とその所有者の意見を反映するものではありません。

Parmy Olson は、Bloomberg Opinion のコラムニストであり、テクノロジーを取り上げています。 ウォール ストリート ジャーナルとフォーブスの元記者であり、「We Are Anonymous」の著者でもあります。

このような他の記事は、bloomberg.com/opinion でご覧いただけます。

Leave a Comment

Your email address will not be published. Required fields are marked *