2ちゃんねる ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

ウィトゲンシュタイン 3

7 :考える名無しさん:2023/11/21(火) 15:53:58.49 0.net
ChatGPTのような大規模言語モデルは、シンタクスやセマンティクス、あるいは
プログラム理論にあるような「知識表現」による統整や形態素解析による分類をしているのでなく、統計学的な確率モデルによって、頻度・尤度の高さや蓋然性のある回答をユーザに
提供しているという仕様になっているものである。知識表現であれば、Prologのような
論理プログラミング言語や形式論理を使って系統的にトークンやタグを配列・構成したりできる。

現代社会は合理性や論理、効率だけなく、確率というものを重視しているようにみえる。
そこで、あえて哲学的にそこに潜むバクというのを俺が考察してみよう。まず、GPTの
場合は「ハルシネーション問題」がある。これは、GPTが虚偽の回答を返してくるという
意味である。私も、ずっと以前にGPTに割合簡単な数学の問題を解かせてみたが、
間違った解答をしたり顔でGPTは返してきた。またGPTはデータの情報更新に
タイムリー性がないので、既に世界で知られている安倍射殺のニュースのことを
知らなかったりもする。

総レス数 1001
306 KB
新着レスの表示

掲示板に戻る 全部 前100 次100 最新50
read.cgi ver.24052200