banner
ニュース センター
優れた品質の製品を比類のない価格で提供します。

ワシントンはAIフリーを阻止できる

Jun 11, 2023

ワシントンがシリコンバレーの責任を追及するための5つの方法

4月、航空会社アビアンカ航空の弁護士は異変に気づいた。 乗客のロバート・マタさんは、機内で配膳カートが衝突し左膝に重傷を負ったとして航空会社を訴えていたが、マタさんの訴訟で引用されたいくつかの訴訟は存在していないようだ。 裁判官もそれらを確認できなかった。 結局、ChatGPT が名前や決定をでっち上げ、でっち上げたことが判明した。 マタ氏の弁護士の一人、スティーブン・A・シュワルツ氏は、チャットボットをアシスタントとして使用しており、法律調査にこのプログラムを使用するのは初めてであり、シュワルツ氏が宣誓供述書で書いているように、「その内容が虚偽である可能性については認識していなかった。 」

この事件は、金融詐欺や同意のないポルノなどは言うまでもなく、生成型 AI が虚偽を広める一連の事例のうちの 1 つにすぎませんでした。 ハイテク企業は自社の AI 製品をマーケティングし、それらの製品が引き起こす可能性のある現実世界の損害に対する責任や法的監督がほとんどないまま、巨額の利益を得る可能性があります。 連邦政府は現在、巻き返しを図ろうとしている。

先月下旬、バイデン政権は、AI開発の最前線にあるテクノロジー企業7社が、自社の製品が「安全、安心、信頼できる」ものであることを保証するための一連の自主的な取り組みに合意したと発表した。 こうした公約は、AIに関する相次ぐホワイトハウスサミット、テクノロジーの規制に関する議会証言、そしてAIを真剣に受け止めているというさまざまな政府機関の宣言に続くものだ。 この発表の中で、OpenAI、Microsoft、Google、Meta などは、自社の製品を第三者によるテストの対象にし、バイアスの削減に投資し、自社の AI システムの機能と制限についてより透明性を高めることを約束しました。

読む: アメリカにはすでにAIの下層階級が存在する

この文言は有望ではあるが、単なる約束でもあり、強制メカニズムや次のステップに関する詳細が欠けている。 AIを規制するには、秘密主義で悪名高い企業や急速に進化するテクノロジーに対抗するために、怠惰な官僚機構が必要となる。 バイデン政権の言葉の多くは、生物兵器や「自己複製」する機械など、自社製品が世界を滅ぼす可能性があるというテクノロジー界の著名人のPR文を真似ている。 政府の行動は、邪悪な超知能機械の想定される長期的な脅威だけでなく、日常的な脅威からも人々の命と暮らしを守るために不可欠です。 生成 AI はすでに重大なバイアスと悪用の可能性を示しています。 そして、10 年以上にわたって、それほど高度ではないものの、同様に不透明でしばしば差別的なアルゴリズムが、診断ソフトウェアや顔認識ツールの一部として、履歴書の審査や信用スコアの決定に使用されてきました。

私は多くの専門家と話をし、テクノロジーの日常的なリスクだけでなく、より仮想的な終末論的な危険からも国を守るために、政府が AI を規制できる最も効果的な 5 つの方法のリストを作成しました。

1. AI企業の言葉を何事も鵜呑みにしないでください。

化学療法用に宣伝される薬剤は、腫瘍を縮小させるなど、臨床試験でがん患者に有益であることが実証され、その後 FDA の承認を得る必要があります。 その場合、メーカーは患者が経験する可能性のある副作用を開示する必要があります。 しかし、AI 製品にはそのような説明責任はありません。 「企業は、AI が X または Y のことを実行できると主張していますが、それができるということを実証していません」と、AI Now Institute のマネージング ディレクターであり、AI に関する元 FTC 上級顧問のサラ・マイヤーズ・ウェスト氏は私に語った。 多くのハイテク企業が、自社のアルゴリズムがどれほど偏っていたり効果的であるかを誤って伝えたり、アルゴリズムを評価するための証拠をほとんど提供したりしていないとして批判されている。

AIツールがバイアス、精度、解釈可能性について合意された基準を満たしていることを確認するために第三者によるテストを受けることを義務付けることは、「非常に重要な第一歩です」と非営利団体である民主主義とテクノロジーセンターの会長であるアレクサンドラ・ギブンズ氏は述べています。インターネット上のプライバシーと人権を擁護しており、テクノロジー業界から資金提供を受けていると私に語った。 企業は、自社のプログラムがどのように訓練されたか、ソフトウェアの制限、および潜在的な危害をどのように軽減したかに関する情報の開示を強制される可能性がある。 「現在、驚くべき情報の非対称性が存在しています」と彼女は言いました。ハイテク企業はソフトウェアのトレーニングと検証の方法についてほとんど明らかにしない傾向があります。 監査には、たとえば、コンピュータビジョンプログラムが黒人と白人の顔を誤認識する頻度や、チャットボットが特定の仕事をステレオタイプの性別役割と関連付けているかどうかをテストすることが含まれる可能性がある(ChatGPTはかつて、弁護士は男性でなければならないため、弁護士は妊娠できないと述べた)。