ブラウンストーン » ブラウンストーンジャーナル » テクノロジー » AI の議論で人々が見落としているもの
AI言語モデルを活用してコードのデバッグからデータの異常検出まで、

AI の議論で人々が見落としているもの

シェア | 印刷 | Eメール

ここ数週間、特に ChatGPT に関する誇大宣伝に関する限り、人工知能 (AI) について書かれたことに注目するのは興味深いことです。 私が判断できる限り、そのほとんどは本質的に、AI が知能の点で人間を上回っているという認識、または恐怖に相当します。 ハーベイ・リッシュ博士の 目を見張るようなアカウント AI との彼の「会話」は、これが誤った認識であることを十分に示していますが、それでもそれは依然として存続しているようです。 

ChatGPT 愛好家と私が最近経験したことは、後者の AGI (汎用人工知能) が賢さの分野において人間より優れているとは言わないまでも同等であるという広く信じられていることに関して、同じ印象を与えました。 それは、フロイトとハンナ・アーレントの研究が世界規模での陰湿な全体主義的統制手段の現在の成長についての洞察をどの程度提供できるかというテーマについて、私が文化団体のメンバーに行った講演の機会に起こりました。 

そのような明らかな展開の 2024 つは、憲法改正に成功することで各国の主権を奪おうとする世界保健機関の試みです。 この試みはXNUMX年前、アフリカ諸国が修正案に反対したことで失敗したが、WHOはその間アフリカの指導者らに精力的に働きかけ、XNUMX年に再挑戦する予定だ。

私の講演の後、誰かがそのテーマを AI に関連付けました。 具体的には、これはフロイトのエロス(生の衝動)とタナトス(死の衝動)の概念が一方では、アーレントの概念であるという私の主張に関係していました。 出生率 (すべての人間は、生まれることによって世界に何かユニークなものをもたらします)そして 複数 (すべての人間は異なります)他方では、全体主義の本質に光を当てます。 それはまた、全体主義を推進する人々が全体主義を維持できるかどうかという問題とも関連している。 私の講演の話題が広まった後、彼はChatGPTにそれについてのコメントを求め、AIの「答え」を印刷した形で会議に持参して私に見せていたことが判明した。

予想通り、巨大なデータベースを備えた言語パターン認識対応の予測研究マシン (これが ChatGPT の正体です) の場合、関連するフロイトとアーレンティアンの概念が何を意味するのかを正確に解き明かすことは難しくありませんでした。これは、どの学生でもインターネットで見つけることができました。または図書館でも。 しかし、AI が行き詰まったのは、これらの思想家たちのアイデアと地球規模の空間で展開されている現在の出来事との間に私が確立したつながりに関するものでした。

今日のさまざまな制度領域でおそらく全体主義的な「動き」の兆候であるものに関連して、私がフロイトとアーレントの概念を発見的に使用したことを思い出してください。 ChatGPT は、これも予想どおり、実行しました (おそらく、 可能性)回覧された講演のタイトルで私が示唆した関連性については詳しく説明しておらず、単にこれら二人の思想家の考えと全体主義の間に「何らかの」関係があると「述べた」だけでした。

この理由はすぐに明らかになるはずです。 ChatGPT のデータベースのどこにも情報はありません – 読みやすい解釈の形式で – 世界の統治機関になろうとするWHOによる持続的な試み(上記参照)などの出来事は、つまり初期の世界的な全体主義体制の兆候である。 ChatGPT (または他の AI) がそのような「解釈」を思いつくには、プログラマーによってその解釈がデータベースに入力される必要があります。これは、ChatGPT がそのような「解釈」を暗黙的に批判していることを考えると、考えられないことではないにしても、ありそうもないことです。 ChatGPT の構築を生み出した一連の力 – そうでなければ、AI はすべての「普通の」人間が持つ能力、つまり周囲の経験世界を解釈できる能力を持たなければなりません。 明らかに、プログラムに依存している AI にはそのような能力はありません。 

私の対話者は、私のこの説明的な応答に異議を唱え、ChatGPT は、人が尋ねるかもしれない質問に対して思いつくすべての「答え」において「推論」する能力を示していると主張しました。 これは AI の動作を正確に説明したものではないと私は指摘しました。 覚えておいてください: ChatGPT は、与えられた質問に対して日常言語で擬人化された応答を生成します。 これは、アクセスできる巨大なデータセット内で検出された例を使用することで実現され、文内の連続する単語を予測できるようになります。 簡単に言えば、「機械学習」を使用して、これらの巨大なデータベース内で統計的なパターンを見つけることができます。 

ルネ・デカルトが『17世紀の哲学』で主張したように、論理学と哲学の歴史を学んだすべての学生は知っているはずですが、これは推論というものではありません。th 世紀において、推論とは直観的な洞察と推論または演繹の組み合わせです。 まず照明が消えたという直観的な洞察から始まり、そこから誰かが照明を切ったのか、あるいは電力供給が中断されたのかを推測します。 あるいは、ある与えられたセット (直観的な洞察) から、別のセットがありそうか、あるいはありそうもないかを (演繹によって) 推論することもできます。 類似性を示すパターンをスキャンし、それに基づいて予想的予測を試みる大量のデータに頼る必要は決してありません。

それにもかかわらず、次のようなコンピュータ科学者から分かるように、 アルビンド・ナラヤナン博士プリンストン大学のコンピューターサイエンス教授によると、ChatGPT のような AI は非常に洗練されているように見えるため、人々 (私の対話者と同じように) は簡単にだまされますが、AI が洗練されるほど、ユーザーがその欠点を見つけるのが難しくなります。疑似推論と彼らの間違い。

ナラヤナン博士が指摘しているように、ChatGPT が提起したコンピュータ サイエンスの試験問題のいくつかに対する回答は偽りでしたが、その表現が非常にうわさであったため、その誤りがすぐには明らかにならず、彼はこれが正しいと確信するまでに XNUMX 回確認する必要がありました。そうでした。 ChatGPT が人間を「置き換える」自慢の能力についてはこれくらいです。

ただし、これまで比較の観点から議論されてきたのは、ChatGPT のような AI が知能レベルで人間と同じように動作するかどうか、つまりパターン認識とは対照的に推論などの違いに関係する主題であることを覚えておく必要があります。等々。 もちろん、この問題を劣等性と優越性という観点から表現することもできますし、次のように主張する人もいます。 人間はまだ現れる AI が人間よりも速く数学的計算を実行できるとしても、AI を上回ることはできません。 

しかし、全体的に見た人間と、どんなに賢くても AI との根本的な違いが客観的に見えるようになるのは、立場を変えたときだけです。 このことは、「人工」知能ではなく人間に関する議論に携わる人々によってほとんど見落とされています。 重要なことすべて

私の言いたいことを説明するには、チェスの世界チャンピオン、ガルリ・カスパロフとの間に何が起こったかを思い出してください。 Deep Blue1997年にカスパロフに敗れた後、 Deep Blue 翌年には機械による人間に対する初めての勝利を収めましたが、そのときも、今日のChatGPTと同様に、コンピューターに征服されたカスパロフに代表される、人類の想定される「終焉」について普遍的な嘆きの声がありました( AI)。 

今日の ChatGPT に関する反応と同様、この反応は、AI と人間の関係を判断する際に大多数の人々が犯した誤りを象徴していました。 通常、そのような評価は、人間と機械のどちらがより「知的」であるかを評価することによって、認知の観点から実行されます。 しかし、人間とコンピューター(AI の代表として)を比較する尺度として、当時も、そして実際現在も、知能が適切だったのか、ましてや、最適だったのかどうかを問う必要があります。 

当然のことながら、機械によるカスパロフの屈辱は当時どこでも報道され、人間と人間を比較するための正しい、または適切な基準に言及するときに私が念頭に置いているものについて、筆者が鋭い理解を示したような記述に出会ったことを覚えています。あい。 カスパロフの歴史的敗走の憂鬱な詳細を再構成したのは、 Deep Blue、この作家はユーモラスですが、ほとんどファンタジーを語っていません。

人間の象徴的な敗北の後、彼女または彼は、設計し構築したエンジニアとコンピューター科学者のチームをでっち上げました。 Deep Blue 彼らは画期的な勝利を祝うために街へ繰り出した。 「彼らのマシンの勝利」と書くのは間違いです。厳密に言えば、「彼らの」コンピューターによって勝利を収めたのは人間のチームだからです。

オチは、作家が修辞的に次のように尋ねたときのために用意されていた。 Deep Blueも、征服を楽しむために街をライトピンクで赤く染めに出かけました。 強調するまでもなく、この修辞的な質問に対する答えは否定的です。 その後に、明らかなことが述べられたオチが続きました。 つまり、「人間は祝う」ということです。 コンピューター (または機械) は、 ではありません。

振り返ってみると、この作家はある種の先見の明を持っていて、人間とAIは(種類は異なるものの)「知性」を共有しているという事実を強調するためにフィクションを利用していたことが印象に残る。 これは、AI と人間の間の最も明白で縮小不可能な違いを示しています。 人間とAIの間には、もっと決定的な違いが他にもあり、そのうちのいくつかは調査されています。 こちらこちら



の下で公開 Creative Commons Attribution4.0国際ライセンス
再版の場合は正規リンクをオリジナルに戻してください。 褐色砂岩研究所 記事と著者。

著者

  • バート・オリヴィエ

    バート・オリヴィエは、フリーステート大学の哲学科に勤務しています。 バートは、精神分析、ポスト構造主義、エコロジー哲学、テクノロジー哲学、文学、映画、建築、美学の研究を行っています。 彼の現在のプロジェクトは、「新自由主義の覇権に関連する主題の理解」です。

    すべての投稿を見る

今日の寄付

ブラウンストーン研究所への皆様の財政的支援は、作家、弁護士、科学者、経済学者、そして現代の激動の中で専門的に粛清され、追放された勇気ある人々を支援するために使われます。 彼らの継続的な活動を通じて真実を明らかにするのを助けることができます。

ブラウンストーンを購読して、より多くのニュースを入手する

ブラウンストーン研究所の最新情報を入手する