メイン 最先端 誰もが人工知能について尋ねる必要がある16の不快な質問

誰もが人工知能について尋ねる必要がある16の不快な質問

明日のためのあなたの星占い

米国と中国のわずか9つの巨大なテクノロジー企業が、世界中の人工知能の進歩の大部分を支えています。彼女の新しい本では、 ビッグナイン:テックタイタンとその思考機械が人類を歪める方法 (PublicAffairs、3月5日)、エイミーウェブは、楽観的なものから終末論的なものまで、A.I。そしてそのグローバルな影響を形作ります。この抜粋では、彼女は人間がA.I.を構築する一連の厳しい倫理的質問を提示しています。システムは、作業をガイドするために使用する必要があります。

すべての文化、社会、国が生き、そしてこれまで生きてきたルール、つまりアルゴリズムは、常にほんの数人の人々によって作成されました。民主主義、共産主義、社会主義、宗教、ビーガニズム、移民排斥、植民地主義-これらは私たちの決定を導くのを助けるために歴史を通して私たちが開発した構造です。最良の場合でも、将来性はありません。技術的、社会的、経済的な力が常に介入し、私たちを適応させます。

十戒は、5、000年以上前に生きていた人間にとってより良い社会を作ることを目的としたアルゴリズムを構成しています。戒めの一つは、週に丸一日休憩し、その日は何もしないことです。現代では、ほとんどの人が週ごとにまったく同じ日や時間で働いていないので、規則に違反しないことは不可能です。その結果、より長い労働日、サッカーの練習、および電子メールの現実を考えると、指針として十戒に従う人々は、解釈において柔軟です。適応は問題ありません。それは私たちにとっても社会にとっても非常にうまく機能し、私たちが軌道に乗ることを可能にします。ガイドラインの基本セットに同意することで、自分自身のために最適化することができます。

デレク・ジーターが結婚したのはいつですか

A.Iの一連の戒めを作成する方法はありません。人類のために正しく最適化するためのすべてのルールを書き出すことはできませんでした。それは、思考マシンは高速で強力かもしれませんが、柔軟性に欠けているためです。例外をシミュレートしたり、すべての不測の事態を事前に検討したりする簡単な方法はありません。どんなルールが書かれたとしても、将来、ルールを別の方法で解釈したり、ルールを完全に無視したり、予期しない状況を管理するために修正を加えたりする状況が常にあります。

従うべき一連の厳格な戒めを書くことはおそらく不可能であることを知っているので、代わりに、システムを構築している人間に注意を向けるべきでしょうか?これらの人々(A.I.の部族)は、次のような不快な質問をする必要があります。

リハビリ中毒者のニコールは何歳ですか
  • A.I.に対する私たちの動機は何ですか?それは人類の最善の長期的利益と一致していますか?
  • 私たち自身のバイアスは何ですか?部族に含めることができなかったアイデア、経験、価値観は何ですか?誰を見落としましたか?
  • A.I.の未来を作るために、私たちとは異なる人々を含めましたか?より良い-または、特定の割り当てを満たすためにチームに多様性を含めただけですか?
  • 私たちの行動が包括的であることをどのように保証できますか?
  • A.I.の技術的、経済的、社会的影響はどのようになっていますか?その作成に関係する人々によって理解されていますか?
  • 私たちに代わって意思決定を行うために使用されているデータセット、アルゴリズム、およびプロセスに問い合わせるには、どのような基本的権利が必要ですか?
  • 誰が人間の生命の価値を定義することができますか?その価値は何に対して比較検討されていますか?
  • A.I.の部族の人々は、A.I。の社会的​​影響に対処するのは彼らの責任であるといつ、そしてなぜ感じているのでしょうか?
  • 私たちの組織と私たちのA.I.部族は多くの異なる種類の人々を反映していますか?
  • A.I.を商業化する人々はどのような役割を果たしますかA.I.の社会的影響に対処するために遊びますか?
  • A.I.を比較し続ける必要があります人間の思考に、それとも私たちがそれを何か違うものとして分類する方が良いですか?
  • AIを構築しても大丈夫ですか?それは人間の感情を認識して反応しますか?
  • A.Iを作っても大丈夫ですか?特にそれが私たちからリアルタイムで学習している場合、人間の感情を模倣することができるシステム?
  • 私たち全員がA.Iで大丈夫である許容可能なポイントは何ですか?ループ内で直接人間なしで進化していますか?
  • どのような状況でA.I.一般的な人間の感情をシミュレートして体験しますか?痛み、喪失、孤独についてはどうですか?その苦しみを引き起こしても大丈夫ですか?
  • 私たちはA.Iを開発していますか?私たち自身のより深い理解を求めるために? A.Iを使用できますか?人類がより調べられた人生を送るのを助けるために?

人工知能の未来に圧倒的に責任を負っている9つの大手ハイテク企業(6つのアメリカ人と3つの中国人)があります。米国では、Google、Microsoft、Amazon、Facebook、IBM、Apple(「G-MAFIA」)です。中国では、それはBATです:Baidu、Alibaba、Tencent。

G-MAFIAは、さまざまな研究および研究グループを通じて原則を導く問題に取り組み始めました。マイクロソフト内には、A.I。の公平性、説明責任、透明性、倫理のためのFATEと呼ばれるチームがあります。ケンブリッジアナリティカスキャンダルをきっかけに、FacebookはそのA.I.を確実にするためのソフトウェアを開発していた倫理チームを立ち上げました。システムはバイアスを回避しました。 (特に、FacebookはA.Iに焦点を当てた倫理委員会を作成するまでには至りませんでした。)DeepMindは倫理と社会のチームを作成しました。 IBMは、倫理とA.Iについて定期的に公開しています。 Baiduでのスキャンダル(検索エンジンは軍が運営する病院からの誤解を招く医療請求を優先し、治療により21歳の学生が死亡した)を受けて、BaiduのCEOであるRobinLiは従業員がBaiduの収益成長のために妥協し、将来的に倫理に焦点を当てることを約束しました。

マイク・ビビーは何歳ですか

ビッグナインは倫理研究とホワイトペーパーを作成し、専門家を招集して倫理について話し合い、倫理に関するパネルを主催していますが、その努力はA.I.に取り組んでいるさまざまなチームの日常業務と十分に絡み合っていません。

ビッグナインのA.I.システムは、商業的価値を示す製品を構築するために、ますます実際のデータにアクセスしています。投資家の期待に応えるため、開発サイクルは急速に進んでいます。私たちは、無意識のうちに、急いで作成されている将来の参加者を、最初にそれらすべての質問に答えることなく、喜んで参加してきました。 A.I.としてシステムが進歩し、日常生活の多くが自動化されるほど、私たちについて、そして私たちのために行われる決定に対して実際に制御できるものが少なくなります。

エイミーウェブはに表示されます 株式会社ファウンダーズハウス 3月11日にオースティンで。