■ このスレッドは過去ログ倉庫に格納されています
ウィトゲンシュタイン 3
- 7 :考える名無しさん:2023/11/21(火) 15:53:58.49 0.net
- ChatGPTのような大規模言語モデルは、シンタクスやセマンティクス、あるいは
プログラム理論にあるような「知識表現」による統整や形態素解析による分類をしているのでなく、統計学的な確率モデルによって、頻度・尤度の高さや蓋然性のある回答をユーザに
提供しているという仕様になっているものである。知識表現であれば、Prologのような
論理プログラミング言語や形式論理を使って系統的にトークンやタグを配列・構成したりできる。
現代社会は合理性や論理、効率だけなく、確率というものを重視しているようにみえる。
そこで、あえて哲学的にそこに潜むバクというのを俺が考察してみよう。まず、GPTの
場合は「ハルシネーション問題」がある。これは、GPTが虚偽の回答を返してくるという
意味である。私も、ずっと以前にGPTに割合簡単な数学の問題を解かせてみたが、
間違った解答をしたり顔でGPTは返してきた。またGPTはデータの情報更新に
タイムリー性がないので、既に世界で知られている安倍射殺のニュースのことを
知らなかったりもする。
総レス数 1001
306 KB
新着レスの表示
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver.24052200