人工知能: 安全ですか?

今月、ホワイトハウス科学技術政策局 (OSTP) は「AI 権利法案の青写真」を発行しました。 この文書は、人工知能 (AI) が私たちの既存の権利を脅かす可能性のある領域を示し、これらの新興技術を使用する際に個人が期待すべき一連の権利を確立しています。

OSTP ブループリントは 2 つのメッセージを送信します。 第一に、AI があらゆるものに影響を与えていること、そして今後も変化する可能性が高いことを認識しています。変化する医療行為、ビジネス、製品の購入方法、相互のやり取りの方法などです。 第二に、これらのテクノロジーは革新的である一方で、個人、グループ、社会の規模で人々に害を及ぼす可能性があり、差別的慣行、プライバシーの侵害、または安全でも効果的でもないシステムを拡大および増幅する可能性があるという事実を強調しています。

この文書は、デジタル世界における私たちの権利の原則を確立しています。 次のステップは、これらの原則を実際に運用する方法を決定することです。

この原則の実践への変換について考える方法はたくさんありますが、「安全ですか?」という簡単な質問をすることは役に立ちます。 —そして、答えが不明な場合は、それを提供するための安全科学を作成する作業を行います.

私たちの世界を変えた他の技術や製品に目を向けることは有益です。 電気、自動車、電気通信はすべて、人々の働き方、生活、相互の交流、ビジネスのやり方を根本的に変えました。 それぞれが私たちに影響を与える方法に問題があり、今でも問題がありますが、それらすべてに対して、1 つの鋭い質問をします。それは安全ですか?

電気は私たちに光、電力、暖かさを与えてくれますが、その代償が家を焼き払う火事であるなら、その恩恵は無意味です。 車は自由の代名詞ですが、私たちの継続的な運転が地球を破壊するのであれば、自由は何の役に立つでしょうか? そして、コミュニケーションの世界は私たちを結びつけますが、流れるコンテンツが誤解を招く、憎悪に満ちた、または子供たちに有害である場合はそうではありません.

これらすべてのテクノロジーについて、安全性の問題は常につきまといます。 私たちは常にこれらのテクノロジーが役立つことを望んでおり、 私たちは彼らが安全であることを望んでいます。 それらを安全にするために、それらが損害を与える条件を特定し、それらの潜在的な損害を防止、軽減、または解決するための実践を行う必要があります。

AI の未来を考えるとき、同じ要求を行い、有害な影響につながる決定と条件を明らかにする必要があります。 インテリジェント技術を有用かつ安全なものにする方法を決定する必要があります。

個人やグループが除外されたり過小評価されたりしないように、医療診断システムは包括的な例セットでトレーニングする必要があるという点で安全です。

私たちが意思決定を下すのに役立つシステムは、私たちを助けるように設計されている必要があります.

誰かの信用、仕事のスキル、または大学への適性を評価するシステムは、これらの決定が偏った過去のデータに基づいて訓練されていないため、過去のように性差別的、人種差別的、部族的なものになります.

間違いを犯す可能性のあるシステムを使用している人々が、機械がそう言ったからといって誰かを逮捕することはできないことを理解しているという点で安全です。

残念ながら、開発者や開発者を雇用している企業に対して、誰かの権利を踏みにじっているため、行動を変える必要があると主張するのは難しい場合があります。 アイデアは理にかなっていますが、実行する必要があるアクションを理解するのに苦労しています。

会話を権利から責任へと転換することは、より強力かもしれません。それは、有用で安全なシステムを開発および展開する責任です。

OSTP の報告書で概説されている権利を守るためには、AI を構築している人々のベスト プラクティスに変換できる、AI の安全性に関する真の科学を開発する必要があります。

個人および社会の安全を設計の中心に据えたシステムを設計および構築するには、具体的に何をしなければならないのでしょうか? AIの未来に備えるために、どのような新しい分野と科学を確立する必要がありますか? 安全性を評価および監視するには、どのようなメカニズムとツールが必要ですか? 修復アプローチをどのように開発し、確立するか?

AI の安全なエコシステムを確立するには、政策、技術の進歩、善意以上のものが必要です。 これは、1 回限りの解決策でも、予期しない害を引き起こさない単一システムの例でもありません。 安全の責任に向けて、学際的、多面的、反復的な社会技術的貢献のスペクトルが必要です。

Kristian Hammond は、ノースウェスタン大学のコンピューター サイエンスの Bill and Cathy Osborn 教授です。 AI のパイオニアであり起業家でもある Hammond は、Narrative Science の共同設立者です。Narrative Science は、AI とジャーナリズムを使用して情報を生データから自然言語に変換するスタートアップです。

Leave a Comment

Your email address will not be published. Required fields are marked *