あかいひぐまさんのサイトより
https://note.com/akaihiguma/n/n49b73f88c808
<転載開始>

2023 年 2 月 6 日
https://vaccineimpact.com/2023/what-chatgpt-and-deepmind-tell-us-about-ai/


画像

チャールズ・ヒュー・スミス著
Of Two Minds

スミス氏のニュースレター「Musing Report」からの抜粋です。

ChatGPTや類似のプログラムが人間レベルの物語を構成し、簡単なコマンドから画像を生成する明白なパワーに、世界は興奮している。

多くの人が、これらの力を無限に近いもの、すなわちAIが超知能の涅槃に到達する特異点まで外挿する誘惑に屈しているのです。

しかし、ChatGPTをAIの歴史と社会経済システムの文脈に位置づけることから始める方がより賢明でしょう。

私は1980年代初頭にAIに興味を持ち、当時を代表するAI研究者の本を何冊も読みました。

AIは、普遍的な一般知能、つまりどんな問題にも一般化された知能を適用できる人類の能力に匹敵する計算機という夢から始まりました。

しかし、人間の知能は単なる論理や理屈ではなく、視覚やヒューリスティック(経験則)、その他多くのサブシステムに依存する非常に複雑なシステムであることがすぐに明らかになった。

AIは、その進歩に興奮する一方で、進歩の限界に気づいて萎むというサイクルを繰り返すことで有名です。

1980年代のコンピュータの性能とソフトウェアプログラミングの向上は、マシンビジョン、ヒューリスティックを具現化するアルゴリズムなど、これらのサブフィールドの進歩をもたらしました。

同時に、ヒューバート・ドレフュスやジョン・サールのような哲学者たちは、我々が「知ること」「理解すること」とは何かを探求し、我々が「理解」と呼ぶものをコンピュータが実現できるのかどうかを問うている。

この論文は(多くの論文の中で)、AIが人間の理解を複製することができるという批判をまとめたものである。意図性と背景 古典的なAI理論に対するサールとドレフュス。(これらのトピックについては、同じようにうんざりするような論文が他にもたくさんある)。

簡単に言えば、スクリプト/アルゴリズムを実行することで、人間が問題を理解するように、実際に問題を「理解」していたのだろうか?

答えは、もちろん「ノー」です。人間の言葉や反応を模倣するようにコンピュータをプログラミングするチューリングテストは、スクリプトやプログラミングが可能ですが、だからといってコンピュータが人間を理解しているとは言えません。人間の反応を抽出し、人間の反応を模倣するヒューリスティックにしたに過ぎないのです。

私は1987年にカリフォルニア大学バークレー校でサール教授の授業を聴講したことがある。(その後、サールは女子学生に対する露骨なセクハラ行為で糾弾され、失脚している)。

この「意識とは何か、理解とは何か」という議論の一つの結果として、AIは一般知能という夢から機械学習という具体的なものに移行していくことになった。

つまり、AIに人間の理解を模倣させることは気にせず、複雑な問題を解決できるようにしようということだ。

機械学習の基本的な考え方は、システムの制約やルールをアルゴリズムに抽出し、そのツールを実世界の事例に適用できるようにすることである。

十分な数の実例を与えると、システムは、人間の研究者には必ずしも見えない、何がうまくいき何がうまくいかないかというヒューリスティック(経験則)を発達させる。

事実上、機械学習プログラムは「ブラックボックス」となり、その進歩は、ツールをプログラムし、実世界の事例をプログラムが扱える形にデジタル化した研究者には不透明なものとなっている。

この機械学習は、統計的アルゴリズムを用いた統計解析と区別することが重要である。

例えば、あるプログラムがパターンや統計的な相関関係を探索するように設計されていた場合、何百万ものソーシャルメディア・プロファイルや購買履歴を分類し、例えばデラウェア州に住む共和党員のサーファーがチポトレのファンである可能性が高いことを発見することができます。

このような統計分析は「ビッグデータ」と呼ばれ、候補者からブリトーまであらゆるもののマーケティングに応用できることは明らかですが、機械学習とは認められません。

同様に、データベースとヒューリスティックから自然言語の物語を生成するChatGPTのようなアルゴリズムも、入力(リクエスト)は分かっていて出力も分かっているがプロセスは不明という「ブラックボックス」の中でファッションを進歩させない限り、機械学習として適格ではない。

グーグルのAIチーム「DeepMind」は、何千ものアミノ酸配列からなるタンパク質がナノ秒以内にコンパクトな形状に折り畳まれる仕組みを解明するという、非常に複雑な課題に取り組んでいる。

2億種類のタンパク質で可能なすべての折り畳みを計算するという問題は、すべての順列を総当り的に計算するだけでは解決できないため、プロセスの各段階をアルゴリズムに分解する必要があった。

最終的な製品であるAlphaFoldには32の構成アルゴリズムがあり、それぞれが関連する分野(生化学、物理学など)の異なる知識ベースをカプセル化している。

DeepMindのAIは、タンパク質の構造を解く上で大きな飛躍を遂げました

プロジェクトリーダーのデミス・ハサビスは、この「ブラックボックス」的な能力をこう表現しています。

「アルファフォールド2は、化学や物理の構造について、暗黙のうちに何かを学んでいることが明らかです。どんなことが起こりうるのか、なんとなくわかっているのです。

AlphaFoldは、分子の物理学と化学について、かなり深いところまで捉えていると思います...ほとんど直感的に学んでいるのです。

しかし、AlphaFoldができること、得意とすることには限界があります。「AlphaFoldが予測するのが苦手なタンパク質領域を調べる研究者が増えてくると思います。」

つまり、AlphaFoldはタンパク質のフォールディングの全体を「理解」しているとは言えないのです。アルファフォールドが得意とするのは、可能な折り畳み構造を限定し、その可能性を、研究所のプロセスで同定された実際のタンパク質構造と比較できる形で提示することです。また、それぞれの予測に信頼度を割り当てることができます。

これは便利ではあるが、「理解」からは程遠いものであり、そうでないと主張するのは失礼である。

Of Two Mindsを購読する

HealthImpactNews.comでこの記事にコメントしてください。

________________________________________________


<転載終了>