1927年から2019年までに、人工知能に関する映画は世界中で100本以上制作されました。 そして、いくつかのシナリオは良い意味で描かれていますが、残りはまさに恐ろしいものです。 ターミネーター』『マトリックス』『アベンジャーズ』といった映画で。 ターミネーター』、『マトリックス』、『アベンジャーズ/エイジ・オブ・ウルトロン』など、映画産業は、より知的な機械が世界を支配し、人類を奴隷にするか、完全に存在を消し去るかを示す場面を、私たちの共通の想像力の中に位置づけたのである。 AIがどんな人間の知能よりも優れた存在になる可能性は、人類の暗い未来を描き出している。
最近では、世界中の国々が人工知能の開発競争に参入し、EUの20カ国が研究開発と教育の両面におけるAI開発に関する戦略を発表しています。 人工知能はレッドホットです。 しかし、AI技術の導入を本格的に進める中で、どのような倫理的・実務的な問題を考慮すべきなのでしょうか。 機械知能を利用してビジネス分野を変革するという共通の目標において、イノベーターはどのようなリスクと責任を考慮すべきなのでしょうか?
そうです、AIエージェントは、人間の知能と並行して処理を完了する能力が非常に高くなるでしょうし、すでに高くなりつつあります。 大学、民間組織、政府は、学習、問題解決、計画、音声認識など、人間の認知機能を模倣する能力を持つ人工知能を積極的に開発しています。 しかし、これらのエージェントが意思決定における共感、本能、知恵を欠いているとしたら、社会への統合は制限されるべきなのだろうか、もしそうならどのような方法でなのだろうか?
AI空間における倫理的考察をいくつか確認してみましょう。 断っておきますが、この記事は決してあなたの意見を説得するためのものではなく、単に大小の顕著な問題のいくつかを強調するためのものです。 カンブリアはAIやロボット技術の支持者ですが、決して倫理の専門家ではないので、あなたの立ち位置を決めるのはあなた自身にお任せします。 ロボット掃除機もそうですが、医療、法執行、軍事防衛、データプライバシー、量子コンピューティングなどにおけるAIをめぐる倫理的な問題は奥が深く、考えるべき重要なことなのです。
1. 雇用の喪失と富の不平等
人々がAIに対して抱いている主要な懸念の1つは、将来の雇用の喪失です。 多くの人が職を失い、場合によっては生活の糧を失うことになっても、AIを完全に開発し、社会に統合するよう努力すべきなのでしょうか。
マッキンゼー・グローバル・インスティチュートの新しいレポートによると、2030年までに、約8億人がAI駆動のロボットに仕事を奪われるとのことです。 もし彼らの仕事がロボットに奪われるなら、おそらくそれは人間にとってあまりにも下働きであり、AIはより高い認知機能、分析、合成を含む人間特有の能力を生かしたより良い仕事を作り出す役割を担えるという意見もあるだろう。 もう一つのポイントは、AIがより多くの仕事を作り出す可能性があるということです。結局のところ、人間はこれらのロボットを最初に作り、将来的に管理する仕事をすることになるのです。
雇用の喪失に関連する問題の1つに、富の不平等があります。 現代の経済システムのほとんどは、労働者が時給に基づいた報酬で製品やサービスを生産することを要求していると考えてください。 会社は賃金、税金、その他の経費を支払い、残った利益はしばしば生産に還元され、トレーニングや、さらに利益を上げるためのビジネスの創出に使われます。 このシナリオでは、経済は成長を続けます。
しかし、経済の流れにAIを導入するとどうなるでしょうか。 ロボットは時給制ではないし、税金も払わない。 操作性や有用性を維持するための継続的なコストが低く、100%のレベルで貢献できる。 これにより、CEOやステークホルダーは、AI労働力が生み出す企業利益をより多く手にすることができ、富の不平等を拡大させることにつながる。 もしかしたら、「金持ち」、つまりAIにお金を払う手段を持つ個人や企業がより金持ちになるケースにつながるかもしれません。
2.AIは不完全-ミスをしたらどうするのか
AIはミスをしないわけではなく、機械学習は使えるようになるまで時間がかかる。 良いデータを使ってうまく訓練すれば、AIは良いパフォーマンスを発揮することができます。 しかし、AIに悪い日付を与えたり、内部のプログラミングでミスをしたりすると、AIは害を及ぼす可能性がある。 2016年にTwitterで公開されたマイクロソフトのAIチャットボット「Tay」のテカ。 他のTwitterユーザーから情報を受け取り学習していたため、1日も経たないうちに、このロボットは人種差別的な中傷やナチスのプロパガンダを吐くことを学習してしまったのです。 マイクロソフトは、このチャットボットを生かすと明らかに会社の評判を落とすことになるため、すぐにシャットダウンしました。
そう、AIは間違いを犯す。 しかし、彼らは人間よりも大きな、あるいは小さな間違いを犯すのだろうか? 人間は間違った判断でどれだけの命を奪ってきたのだろうか。
3.AIシステムは殺人を許されるべきか
このTEDxスピーチでジェイ・タックは、AIを、自ら更新を書き、更新するソフトウェアと表現しています。 つまり、プログラムされた通り、機械は私たちが望むことをするように作られるのではなく、学習したことをするようになるのです。 ジェイはさらに、タロンというロボットの事件を説明する。 そのコンピュータ化された銃は、爆発の後、制御不能のまま発射され、9人が死亡、14人が負傷した。
ジェネラル・アトミックスのMQ-1プレデターなどのプレデタードローンは、10年以上前から存在している。 これらの遠隔操縦の航空機はミサイルを発射することができますが、米国の法律では、人間が実際の殺害を決定することが義務付けられています。 しかし、ドローンが空中での軍事防衛に果たす役割は大きくなっており、その役割と使われ方をさらに検討する必要があります。 人間を射線上に置くより、AIを使って殺す方がいいのか? 実際の暴力ではなく、抑止のためだけにロボットを使うとしたらどうでしょうか?
殺人ロボット阻止キャンペーンは、人間の介入なしに生死を決定できる完全自律型兵器を禁止するために組織された非営利団体である。 「完全自律型兵器は、攻撃の比例性を評価し、民間人と戦闘員を区別し、戦争法の他の基本原則を守るために必要な人間の判断力を欠いています。 歴史は、その使用が特定の状況に限定されないことを示している」
4. 不正なAI
知的機械が間違いを犯す可能性があるならば、AIが不正を行う、または一見無害な目標を追求するその行動から意図しない結果を引き起こす可能性は十分にあると言えるでしょう。 AIが暴走するシナリオの1つは、「ターミネーター」などの映画やテレビ番組ですでに見られたもので、超高知能の中央管理型AIコンピューターが自我を持ち、人間の支配をもう望まないと判断するようなものです。
現在、専門家によると、現在の AI テクノロジーは、この非常に危険な自己認識の偉業を達成することはまだできませんが、将来の AI スーパーコンピューターはそうなるかもしれません。 長時間の計算の後、AI は、ワクチンを作る代わりに、ウイルスを兵器化する解決策を策定しました。 これは、現代のパンドラの箱を開けてしまったようなもので、このようなシナリオを防ぐためには、正当な懸念に対処する必要があるため、再び倫理が登場するのです。 シンギュラリティとAIをコントロールすること
AIは人間を超えるように進化するのでしょうか。 人間より賢くなり、そして人間をコントロールしようとしたらどうなるか? コンピュータは人間を廃れさせるのか? テクノロジーの成長が人間の知能を超える時点を “技術的特異点 “と呼ぶ。 これが人類の時代の終わりを告げるという説もあり、技術革新のペースから早ければ2030年頃に発生する可能性があるという。 人類滅亡につながるAI–AIの進化が多くの人にとって怖いのは、容易に理解できるだろう。
6.AIをどう扱うべきか
ロボットに人権や市民権を与えるべき? もしロボットを進化させて「感じる」ことができるようになったら、人間や動物と同じような権利が与えられるのだろうか。 もしロボットに権利が与えられるとしたら、その社会的地位はどのようにランク付けされるのでしょうか。 これは、1942年にアイザック・アシモフが提唱した「ロボエシックス」の主要な論点の一つである。 2017年、ハンソン・ロボティクス社の人型ロボット「ソフィア」が、サウジアラビアで市民権を得た。 これは実際の法的承認というよりもPRのための演出だと考える人もいるが、将来的にAIにどのような権利が与えられるかの一例となった。
7. AIのバイアス
AI は、顔および音声認識システムにますます内在するようになり、その一部は実際のビジネスに影響を与え、人々に直接影響を与える。 これらのシステムは、その人間の製造者によってもたらされるバイアスやエラーに対して脆弱です。 また、これらのAIシステムを訓練するために使用されるデータ自体にも偏りがある可能性があります。 例えば、マイクロソフト、IBM、Megviiが作った顔認識アルゴリズムには、人の性別を検出する際にバイアスがかかっていました。 これらのAIシステムは、肌の色が濃い男性の性別よりも、白人の男性の性別をより正確に検出することができたのです。 同様に、Amazon’s.comによるAI採用の終了は、AIが公正であり得ないことを示すもう一つの例であり、アルゴリズムは女性よりも男性の候補者を優先したのです。 これは、アマゾンのシステムが、ほとんどが男性の候補者から得られた10年間にわたるデータで訓練されたためです。
AIはバイアスになりうるか? まあ、それは難しい質問です。 知的な機械は、私たち人間のようなモラルコンパスや一連の原則を持っていないと主張することもできます。 しかし、私たちの道徳心や原則でさえ、時には人類全体のためにならないことがあります。では、AIエージェントがその創造者と同じ欠点を持たないようにするには、どうすればよいのでしょうか。 もしAIが人種、性別、宗教、民族に対してある種の偏見を持つようになったら、その責任はほとんどその教え方、訓練の仕方にあることになるでしょう。 したがって、AIの研究に携わる人は、使用するデータを決定する際に、偏りを念頭に置く必要があります。
まとめ
そう、ますます存在感を増すAIシステムが人間の知能を超えることを考えると、怖くなりますね。 そして、AIの導入に伴う倫理的な問題は複雑です。 重要なのは、これらの問題を念頭に置いて、より広範な社会的問題を分析することでしょう。 AIが良いのか悪いのかは、一つの理論やフレームワークがベストではなく、様々な角度から検討することができます。 私たちの未来のために良い決断をするために、私たちは学び続け、情報を得続ける必要があります」
ライター公募
このような技術トピックについて書くのが好きですか? それなら、Kambria Content Challenge に参加して、あなたの洞察力と専門知識を成長中の開発者コミュニティと共有してください。 最高の投稿には 200 ドル以上を受け取ることができます。 コンテンツチャレンジの詳細については、ここをクリックしてください。