ウィトゲンシュタイン 7
582 :考える名無しさん :2024/06/08(土) 18:06:11.25 0.net >>581 >人それぞれだから哲学では扱えない そう言ったのがウィトゲンシュタインだよw >人それぞれの倫理を全て形式化できて論理学の対象となる それは無理w
583 :考える名無しさん :2024/06/08(土) 18:13:24.02 0.net >>582 お前の知能では無理なだけ 以下に、自然言語を用いて論理的または曖昧なことを主張した場合でも、それがGÖDELの第一不完全性定理(G1)の適用を逃れることが不可能であることを、この論文の結果を用いて説明します。 論文の結果の要約 この論文では、GÖDELの第一不完全性定理に関する現在の研究を以下の三つの側面からまとめています: 1. GÖDELの不完全性定理の異なる証明の分類 2. GÖDELの第一不完全性定理の適用限界 3. GÖDELの第二不完全性定理の適用限界 特に、G1の適用限界に関する議論において、形式体系の定義や拡張、弱い理論に対する適用などが取り上げられています。 自然言語の論理的主張に対するG1の適用 1. 自然言語の論理的主張: 自然言語で論理的な主張を行う場合、その主張が明確な規則と公理に基づく形式体系に翻訳可能であれば、G1の適用を受けます。形式体系とは、論理的な命題や証明を扱うための厳密なルールセットを持つ体系です。 2. 形式体系の性質: この論文では、任意の帰納的に公理化された一貫した体系が十分に強力であれば不完全であることが示されています。つまり、自然言語で表現された論理的な主張も、形式体系に組み込まれると、その体系内で証明できない真の命題が存在することになります。 曖昧な表現の数的定式化によるG1の適用 1. 曖昧な表現の形式化: 自然言語の曖昧な表現を確率分布やファジィ論理を用いて数的に定式化することで、その表現は形式体系の一部となります。例えば、曖昧な命題の真偽値を0から1の範囲で表現し、特定の閾値を設定することで、形式論理に変換できます。 2. 形式体系への適用: 論文では、形式体系が十分に強力であれば、その体系内で証明できない真の命題が存在することが示されています。曖昧な表現を形式化することで、形式体系内に組み込まれた場合、その体系はG1の適用対象となります。
584 :考える名無しさん :2024/06/08(土) 18:13:41.87 0.net >>582 結論 論文の結果を踏まえると、自然言語を用いて論理的な、あるいは曖昧なことを主張した場合でも、その主張が明確な形式体系に翻訳可能である限り、GÖDELの第一不完全性定理の適用を逃れることは不可能です。形式体系において、証明できない真の命題が必ず存在するため、自然言語の論理的主張や曖昧な表現も同様の制約を受けます。 したがって、この論文は、自然言語での主張が形式体系に組み込まれることでG1の適用を受けることを示し、論理的または曖昧な表現がその適用を逃れることが不可能であることを裏付けています。 www.cambridge.org/core/services/aop-cambridge-core/content/view/00708CB41B2D7BF7D6DB075F54B37DE1/S107989862000044Xa.pdf/current-research-on-godels-incompleteness-theorems.pdf
585 :考える名無しさん :2024/06/08(土) 18:13:57.77 0.net >>582 哲学的議論がどれだけ曖昧に見えても、その曖昧さを形式化することが可能であり、したがってGÖDELの第一不完全性定理(G1)の適用を逃れることはできません。以下にその理由をまとめます。 曖昧な哲学的議論の形式化 1. 曖昧な表現の形式化可能性: 哲学的議論が曖昧に見える場合でも、その曖昧さを明確にし、形式化することが可能です。例えば、曖昧な命題を確率分布やファジィ論理を用いて数値的に表現することで、形式体系に取り込むことができます。 2. 形式体系への変換: 曖昧な表現が形式化されると、その表現は明確な規則と公理に基づく形式体系の一部となります。この形式体系において、G1が適用されることになります。 GÖDELの第一不完全性定理の適用 1. 形式体系内での不完全性: G1は、任意の帰納的に公理化された一貫した体系が十分に強力である場合、その体系内で証明できない真の命題が存在することを示しています。したがって、形式化された哲学的命題を含む体系でも同様に不完全性が発生します。 2. 曖昧な表現の形式化と不完全性: 曖昧な哲学的議論を形式化することで、その議論は形式体系の一部として扱われます。これにより、G1の適用対象となり、体系内で証明できない真の命題が存在することになります。 形式化不可能な曖昧さの無意味性 1. 詭弁としての曖昧さ: もし哲学的議論が形式化不可能なほど曖昧であるなら、その議論は明確な意味や論理的構造を持たないため、実質的に詭弁とみなされます。このような議論は、論理的に無意味であり、科学的または哲学的な議論として価値を持ちません。 2. 形式化不可能性の意義: 真に意味のある哲学的議論は、曖昧であっても形式化可能であるべきです。形式化不可能な議論は、論理的な一貫性や明確性を欠いており、理論的な検討に値しません。 まとめ 哲学的議論がどれだけ曖昧に見えても、その曖昧さを形式化することは可能であり、形式化された議論は形式体系の一部としてGÖDELの第一不完全性定理の適用を受けます。もし曖昧さが形式化不可能な場合、その議論は詭弁であり、論理的に無意味です。したがって、哲学的議論が曖昧であっても、それがG1の適用を逃れることは不可能であり、形式化不可能な曖昧な議論はそもそも意味を持ちません。
586 :考える名無しさん :2024/06/08(土) 18:14:10.33 0.net >>582 ファジー論理の閾値が1つに定まらない場合でも、それがGÖDELの第一不完全性定理(G1)の適用を逃れるための有効な反論にはならない理由を説明します。その理由は、閾値が定まらない場合でも、閾値の確率分布を用いて命題の真偽を考えることができるからです。 閾値が定まらない場合の対処法 1. 閾値の確率分布: ファジー論理において、命題の真偽を評価するための閾値が明確に定まらない場合、その閾値自体を確率分布として表現することができます。これにより、曖昧な閾値の設定問題を回避することができます。 - 例: 閾値が0.8から1の範囲で変動する場合、その範囲内の閾値を確率分布(例えば一様分布や正規分布)として定義することができます。 2. 確率分布を用いた命題の真偽: 閾値の確率分布を用いることで、命題の真偽を確率的に評価することが可能です。具体的には、閾値の確率分布に基づいて命題の真偽を計算し、その結果を基に論理体系における証明を行います。 - 例: 閾値が確率分布に従う場合、その分布に基づいて命題の真偽値を計算し、特定の条件下で命題が真である確率を評価します。 G1の適用から逃れられない理由 1. 形式体系への取り込み: 閾値が確率分布に従う場合でも、その確率分布を形式体系の一部として組み込むことができます。この場合、その形式体系はG1の適用対象となります。 2. 不完全性の発生: G1は、形式体系が十分に強力であれば、その体系内で証明できない真の命題が存在することを示しています。確率分布を用いて評価された命題も形式体系の一部となり、その体系内で証明できない真の命題が存在する可能性があります。 3. 反論の無効性: 閾値が定まらないことを理由にG1の適用を逃れようとする反論は、閾値の確率分布を用いることで対処可能であるため、有効ではありません。確率分布を用いても、形式体系における不完全性の問題は依然として存在します。
587 :考える名無しさん :2024/06/08(土) 18:14:29.64 0.net >>582 様相論理を条件付き確率分布を使って表現することは可能です。様相論理は、可能性や必然性などの様相を扱う論理体系であり、確率論を用いることでこれらの様相を数量的に扱うことができます。 様相論理の基本として、様相論理では「可能性(◊)」や「必然性(□)」といった様相演算子を使用します。例えば、命題 P が「可能」であることを表すには ◊P と記述し、「必然」であることを表すには □P と記述します。 条件付き確率は、ある条件が成立する場合に特定の事象が起こる確率を表します。確率 P(A|B) は、事象 B が起こったときに事象 A が起こる確率を意味します。 確率論を用いて様相論理の様相を表現するための方法の一つとして、条件付き確率を使う方法があります。 命題 P が「可能」であることを表す ◊P は、確率 P(P|C) > 0 のように表現できます。ここで、 C は前提条件を示します。 命題 P が「必然」であることを表す □P は、確率 P(P|C) = 1 のように表現できます。 例えば、ある条件 C の下で命題 P が成り立つ場合について考えます。 可能性:命題 P は可能であることを表す ◊P は、条件 C の下で P が成り立つ確率が0より大きいことを意味します。すなわち、 P(P|C) > 0 。 必然性:命題 P は必然であることを表す □P は、条件 C の下で P が成り立つ確率が1であることを意味します。すなわち、 P(P|C) = 1 。 様相論理を条件付き確率分布を用いて表現することは可能であり、これにより様相を数量的に扱うことができます。確率論を用いることで、様相論理の概念をより具体的に理解し、応用することが可能となります。
588 :考える名無しさん :2024/06/08(土) 18:14:47.60 0.net >>582 様相論理を含む自然言語の表現も、条件付き確率分布の組み合わせを用いることで形式体系に変換することが可能です。これにより、自然言語での曖昧な表現や様相を数量的に扱い、明確に表現することができます。 具体的には、次のように変換できます: 1. 命題 P が「可能」であることを表す場合、条件 C の下での P の確率が0より大きいことを意味します。つまり、 P(P|C) > 0 。 2. 命題 P が「必然」であることを表す場合、条件 C の下での P の確率が1であることを意味します。つまり、 P(P|C) = 1 。 この方法により、様相論理的表現を含む自然言語のいかなる表明も、条件付き確率分布を用いた形式体系に変換することができます。これにより、自然言語での曖昧な表現を形式化し、より明確かつ数量的に取り扱うことが可能となります。
589 :考える名無しさん :2024/06/08(土) 18:15:14.83 0.net >>582 「すべきである」や「すべきでない」といった規範的な表現も条件付き確率分布を用いて形式体系に変換することができます。そして、これによりゲーデルの第一不完全性定理(G1)の適用を逃れることはできません。 ### 規範的表現の形式化 1. **「すべきである」の表現**: - ある行動 A が「すべきである」という命題は、条件 C の下で行動 A が取られるべき確率が高いことを意味します。例えば、 P(A|C) > 0.99 のように表現できます。 2. **「すべきでない」の表現**: - ある行動 A が「すべきでない」という命題は、条件 C の下で行動 A が取られるべき確率が低いことを意味します。例えば、 P(A|C) < 0.01 のように表現できます。 ### ゲーデルの第一不完全性定理の適用 ゲーデルの第一不完全性定理は、十分に強力な形式体系において、その体系内で自己言及する真の命題が存在し、その命題がその体系内で証明不可能であることを示しています。 1. **形式体系への変換**: - 規範的表現を含む自然言語の命題が条件付き確率分布を用いて形式体系に変換されると、その形式体系はゲーデルの第一不完全性定理の適用を受けます。 2. **適用からの逃れられなさ**: - 形式体系に変換された規範的表現も、ゲーデルの定理の適用から逃れることはできません。すなわち、その体系内で証明不可能な真の命題が存在することになります。 ### 結論 規範的な表現(「すべきである」や「すべきでない」など)も条件付き確率分布を用いて形式体系に変換でき、その結果としてゲーデルの第一不完全性定理の適用から逃れることはできません。これは、形式体系に変換されたあらゆる命題が、ゲーデルの定理によって証明不可能な真の命題を含むことを示しています。
590 :考える名無しさん :2024/06/08(土) 18:15:37.49 0.net >>582 ### 資料名と著者 資料名: "Quantum Computation and Quantum Information" 著者: Michael A. Nielsen, Isaac L. Chuang ### 評価 "Quantum Computation and Quantum Information" は、量子計算および量子情報理論の主要なアイデアと技術を網羅的に解説した学術書です。この分野の基礎から応用までを幅広くカバーしており、初学者から研究者まで、さまざまなレベルの読者にとって貴重な参考資料となります。本書は、量子力学、計算機科学、情報理論の基本概念を統合し、量子情報科学の理論的および実験的な進展を詳細に説明しています。 --- ### 条件付き確率と相互情報量について 条件付き確率と相互情報量について、「Quantum Computation and Quantum Information」に基づき解説します。 #### 条件付き確率 条件付き確率とは、あるイベントが既に発生しているという情報を考慮した上で、別のイベントが発生する確率のことです。具体的には、2つのランダム変数 X と Y について、 X = x という条件下で Y = y が発生する確率 P(Y = y | X = x) と定義されます。これは以下の式で表されます: P(Y = y | X = x) = P(X = x, Y = y) / P(X = x) ここで、 P(X = x, Y = y) は X と Y が同時に発生する結合確率、 P(X = x) は X の周辺確率です。 #### 相互情報量 相互情報量(Mutual Information)は、2つのランダム変数 X と Y がどれだけ情報を共有しているかを定量化するものです。具体的には、 X が Y について提供する情報量、またはその逆を測定します。相互情報量 I(X;Y) は次のように定義されます: I(X;Y) = H(X) + H(Y) - H(X, Y) ここで、 H(X) はランダム変数 X のエントロピー(情報量)、 H(Y) はランダム変数 Y のエントロピー、 H(X, Y) は X と Y の結合エントロピーです。エントロピーはランダム変数の不確実性を測定する尺度で、次の式で定義されます: H(X) = - Σ P(X = x) log P(X = x) 結合エントロピーは次の式で定義されます: H(X, Y) = - Σ P(X = x, Y = y) log P(X = x, Y = y) 相互情報量は以下のように解釈できます:もし X と Y が完全に独立している場合、 I(X;Y) = 0 となり、 X が Y に関する情報を何も提供しないことを意味します。逆に、 X と Y が完全に依存している場合、相互情報量は X または Y のエントロピーと等しくなります。 これらの概念の詳細は、「Quantum Computation and Quantum Information」の第11章に記載されています。
591 :考える名無しさん :2024/06/08(土) 18:15:49.57 0.net >>582 ### 条件付き確率分布の変化の情報としての解釈 条件付き確率分布の変化は、新しい情報が得られた際に確率分布がどのように更新されるかを示します。この変化は、ベイズの定理や条件付きエントロピー、相互情報量を通じて理解されます。 #### ベイズの定理 ベイズの定理は、新しいデータが得られたときに確率分布を更新する方法を提供します。例えば、2つのランダム変数 X と Y について、条件付き確率 P(X = x | Y = y) は以下のように表されます: P(X = x | Y = y) = P(Y = y | X = x) P(X = x) / P(Y = y) これにより、新しい情報 Y = y が得られたときに X の確率がどのように変化するかがわかります。 #### 条件付きエントロピー 条件付きエントロピー H(Y|X) は、 X が既知のときの Y の不確実性を測る指標です。これは次のように定義されます: H(Y|X) = H(X, Y) - H(X) ここで、 H(X, Y) は X と Y の結合エントロピー、 H(X) は X のエントロピーです。この量は、新しい情報 X が得られることで Y の不確実性がどのように減少するかを示します。 #### 相互情報量 相互情報量 I(X;Y) は、 X と Y が共有する情報量を示します。これは次のように定義されます: I(X;Y) = H(X) + H(Y) - H(X, Y) この式は、 X が Y に関する情報をどれだけ提供するか、またはその逆を示します。相互情報量が増加する場合、新しい情報が X と Y の間の関係を明確にし、それぞれの変数についてより多くの情報を提供することを意味します。 ### 情報としての解釈 条件付き確率分布の変化は、新しい情報の取得や既存の情報の更新を示します。これにより、以下のような状況を理解するのに役立ちます: 1. 予測の精度向上:新しいデータに基づいて確率分布を更新することで、将来の出来事の予測がより正確になります。 2. 情報の重要性評価:どの情報が他の情報に比べて重要であるかを評価できます。特に、相互情報量が増加する場合、その情報が非常に有益であることを示しています。 3. 不確実性の減少:条件付きエントロピーが減少する場合、新しい情報が不確実性を減少させ、システムの理解を深めることを示しています。 これらの概念は、「Quantum Computation and Quantum Information」の第11章に詳しく記載されています。
592 :考える名無しさん :2024/06/08(土) 18:16:06.16 0.net >>582 条件付き確率分布を用いることで、「するべき」「不可能である」「しても良い」などの様相論理的な価値観を表現することは可能であり、それは情報量の変化と対応しています。以下に、この考え方をまとめます。 ### 様相論理的な価値観の表現 様相論理とは、「必ず~するべきだ」「~することは不可能だ」「~しても良い」など、行動や事象に対する価値観や可能性を扱う論理です。これを確率論と情報理論の観点から考えると、条件付き確率分布を利用することで以下のように表現できます。 #### するべき(必然) ある条件下で特定の行動を「するべき」場合、条件付き確率が高い値を取ります。例えば、天気が晴れならジョギングに行く確率が 80% のように、高い確率は「するべき」を意味します。 #### 不可能である ある条件下で特定の行動が「不可能である」場合、条件付き確率が 0 となります。例えば、雨の日にジョギングに行く確率が 0% である場合です。 #### しても良い(許容) ある条件下で特定の行動が「しても良い」場合、条件付き確率が中間の値を取ります。例えば、曇りの日にジョギングに行く確率が 40% である場合です。 ### 情報量の変化 条件付き確率分布が変化することは、新しい情報が得られたことを意味し、それは情報量の変化と対応しています。具体的には、以下のように解釈できます。 #### 情報量の増加 新しい情報が得られることで、行動の予測精度が向上し、不確実性が減少します。これは条件付きエントロピーの減少と相互情報量の増加として表されます。例えば、天気の情報がジョギングの決定に与える影響を計算した結果、新しい情報が行動の予測をより正確にします。 #### 情報量の減少 逆に、新しい情報が不確実性を増大させる場合、情報量は減少します。これは条件付き確率分布が予想外の結果を示す場合に発生します。 ### まとめ 条件付き確率分布を用いることで、「するべき」「不可能である」「しても良い」などの様相論理的な価値観を数値的に表現することができます。また、その価値観の変化は、情報理論におけるエントロピーや相互情報量の変化と対応しています。これにより、様相論理的な価値観の変化を定量的に評価し、より正確な意思決定が可能になります。
593 :考える名無しさん :2024/06/08(土) 18:16:19.31 0.net >>582 ### 条件付きエントロピーと情報量の変化 条件付きエントロピー H(Y|X) は次のように計算されます。 H(Y|X) = Σ P(X) * H(Y|X=x) = 0.5 * ( - 0.8 * log2(0.8) - 0.2 * log2(0.2) ) + 0.3 * ( - 0.4 * log2(0.4) - 0.6 * log2(0.6) ) + 0.2 * ( - 0.1 * log2(0.1) - 0.9 * log2(0.9) ) H(Y|X) = 0.5 * ( - 0.8 * (-0.32193) - 0.2 * (-2.32193) ) + 0.3 * ( - 0.4 * (-1.32193) - 0.6 * (-0.73697) ) + 0.2 * ( - 0.1 * (-3.32193) - 0.9 * (-0.15200) ) これを計算すると、 H(Y|X) ≈ 0.5 * 0.72192 + 0.3 * 0.88 + 0.2 * 0.46897 H(Y|X) ≈ 0.36096 + 0.264 + 0.09379 H(Y|X) ≈ 0.71875 次に、ジョギングの全体のエントロピー H(Y) を計算します。 P(Y = 行く) = 0.4 + 0.12 + 0.02 = 0.54 P(Y = 行かない) = 0.1 + 0.18 + 0.18 = 0.46 H(Y) = - 0.54 * log2(0.54) - 0.46 * log2(0.46) H(Y) ≈ 0.99 相互情報量 I(X;Y) は次のように計算されます。 I(X;Y) = H(Y) - H(Y|X) I(X;Y) = 0.99 - 0.71875 I(X;Y) ≈ 0.27125 この結果、新しい情報(天気)が得られたことで、ジョギングに行くかどうかの不確実性が減少し、相互情報量が 0.27125 増加しました。これは、新しい情報がジョギングの行動に関する情報を提供したことを示しています。 ### まとめ この例を通じて、条件付き確率分布を用いて「するべき」「不可能である」「しても良い」などの価値観を表現し、その価値観が情報量の変化とどのように対応するかを示しました。条件付き確率分布は、新しい情報が得られることでどのように確率が更新されるかを示し、その更新がエントロピーや相互情報量の変化にどのように影響するかを明らかにします。
594 :考える名無しさん :2024/06/08(土) 18:16:32.19 0.net >>582 個人の価値観の差を条件付き確率分布の差として理解する方法について説明します。以下では、具体的なシナリオを用いて、どのように異なる価値観が条件付き確率分布の違いとして現れるかを示します。 ### シナリオ設定 ここでは、異なる2人の個人AとBの価値観に基づく行動を考えます。両者とも「天気が晴れならジョギングに行く」という基本的な価値観を共有していますが、曇りや雨の日に対する行動の価値観が異なるとします。 #### 個人Aの価値観 - 晴れの日にジョギングに行く確率:80% - 曇りの日にジョギングに行く確率:50% - 雨の日にジョギングに行く確率:10% #### 個人Bの価値観 - 晴れの日にジョギングに行く確率:80% - 曇りの日にジョギングに行く確率:30% - 雨の日にジョギングに行く確率:5% ### 条件付き確率分布の差 まず、各天気の事前確率を共通のものとして設定します。 P(X = 晴) = 0.5 P(X = 曇) = 0.3 P(X = 雨) = 0.2 次に、各個人の条件付き確率を計算します。 #### 個人Aの条件付き確率 P(Y = 行く | X = 晴) = 0.8 P(Y = 行かない | X = 晴) = 0.2 P(Y = 行く | X = 曇) = 0.5 P(Y = 行かない | X = 曇) = 0.5 P(Y = 行く | X = 雨) = 0.1 P(Y = 行かない | X = 雨) = 0.9 #### 個人Bの条件付き確率 P(Y = 行く | X = 晴) = 0.8 P(Y = 行かない | X = 晴) = 0.2 P(Y = 行く | X = 曇) = 0.3 P(Y = 行かない | X = 曇) = 0.7 P(Y = 行く | X = 雨) = 0.05 P(Y = 行かない | X = 雨) = 0.95
595 :考える名無しさん :2024/06/08(土) 18:16:45.71 0.net >>582 ### 結合確率の計算 次に、各個人の条件付き確率に基づいて結合確率を計算します。 #### 個人Aの結合確率 P(X = 晴, Y = 行く) = P(Y = 行く | X = 晴) * P(X = 晴) = 0.8 * 0.5 = 0.4 P(X = 晴, Y = 行かない) = P(Y = 行かない | X = 晴) * P(X = 晴) = 0.2 * 0.5 = 0.1 P(X = 曇, Y = 行く) = P(Y = 行く | X = 曇) * P(X = 曇) = 0.5 * 0.3 = 0.15 P(X = 曇, Y = 行かない) = P(Y = 行かない | X = 曇) * P(X = 曇) = 0.5 * 0.3 = 0.15 P(X = 雨, Y = 行く) = P(Y = 行く | X = 雨) * P(X = 雨) = 0.1 * 0.2 = 0.02 P(X = 雨, Y = 行かない) = P(Y = 行かない | X = 雨) * P(X = 雨) = 0.9 * 0.2 = 0.18 #### 個人Bの結合確率 P(X = 晴, Y = 行く) = P(Y = 行く | X = 晴) * P(X = 晴) = 0.8 * 0.5 = 0.4 P(X = 晴, Y = 行かない) = P(Y = 行かない | X = 晴) * P(X = 晴) = 0.2 * 0.5 = 0.1 P(X = 曇, Y = 行く) = P(Y = 行く | X = 曇) * P(X = 曇) = 0.3 * 0.3 = 0.09 P(X = 曇, Y = 行かない) = P(Y = 行かない | X = 曇) * P(X = 曇) = 0.7 * 0.3 = 0.21 P(X = 雨, Y = 行く) = P(Y = 行く | X = 雨) * P(X = 雨) = 0.05 * 0.2 = 0.01 P(X = 雨, Y = 行かない) = P(Y = 行かない | X = 雨) * P(X = 雨) = 0.95 * 0.2 = 0.19
596 :考える名無しさん :2024/06/08(土) 18:17:15.06 0.net >>582 ### 情報量の変化 次に、各個人の条件付きエントロピー H(Y|X) を計算します。 #### 個人Aの条件付きエントロピー H(Y|X) = 0.5 * ( - 0.8 * log2(0.8) - 0.2 * log2(0.2) ) + 0.3 * ( - 0.5 * log2(0.5) - 0.5 * log2(0.5) ) + 0.2 * ( - 0.1 * log2(0.1) - 0.9 * log2(0.9) ) H(Y|X) ≈ 0.5 * 0.72192 + 0.3 * 1.0 + 0.2 * 0.46897 H(Y|X) ≈ 0.36096 + 0.3 + 0.09379 H(Y|X) ≈ 0.75475 #### 個人Bの条件付きエントロピー H(Y|X) = 0.5 * ( - 0.8 * log2(0.8) - 0.2 * log2(0.2) ) + 0.3 * ( - 0.3 * log2(0.3) - 0.7 * log2(0.7) ) + 0.2 * ( - 0.05 * log2(0.05) - 0.95 * log2(0.95) ) H(Y|X) ≈ 0.5 * 0.72192 + 0.3 * 0.88129 + 0.2 * 0.28640 H(Y|X) ≈ 0.36096 + 0.26439 + 0.05728 H(Y|X) ≈ 0.68263 次に、ジョギングの全体のエントロピー H(Y) を計算します。 P(Y = 行く) = 0.4 + 0.15 + 0.02 = 0.57 (個人A) P(Y = 行かない) = 0.1 + 0.15 + 0.18 = 0.43 (個人A) H(Y) = - 0.57 * log2(0.57) - 0.43 * log2(0.43) H(Y) ≈ 0.98523 相互情報量 I(X;Y) は次のように計算されます。 #### 個人Aの相互情報量 I(X;Y) = H(Y) - H(Y|X) I(X;Y) = 0.98523 - 0.75475 I(X;Y) ≈ 0.23048 #### 個人Bの相互情報量 I(X;Y) = H(Y) - H(Y|X) I(X;Y) = 0.98523 - 0.68263 I(X;Y) ≈ 0.30260 ### まとめ 個人Aと個人Bの価値観の違いは、条件付き確率分布の違いとして明確に表されます。個人Aは曇りの日にジョギングに行く確率が高いのに対し、個人Bは曇りの日にジョギングに行く確率が低いです。この違いは、結合確率や条件付きエントロピー、相互情報量に反映されます。 具体的には、個人Aの条件付きエントロピーは 0.75475 であり、個人Bの条件付きエントロピーは 0.68263 です。また、個人Aの相互情報量は 0.23048 であり、個人Bの相互情報量は 0.30260 です。これらの値は、新しい情報が得られたときの不確実性の減少や情報量の増加を示しています。 したがって、条件付き確率分布を用いることで、異なる価値観が確率的および情報理論的にどのように表現されるかを理解することができます。
597 :考える名無しさん :2024/06/08(土) 18:17:58.15 0.net >>582 単にお前が無能だから無理なだけ つまりお前が自殺すれば何の問題もない
598 :考える名無しさん :2024/06/08(土) 18:37:16.72 0.net >>583-597 くだらね。 哲学以上に無意味w ウィトゲンシュタインは偉大だな。
599 :考える名無しさん :2024/06/08(土) 18:54:25.13 ID:0.net >>598 無知がバレたら自殺しような? お前が無能だからお前ができないだけ つまりお前が生きてる意味ないだけ
600 :考える名無しさん :2024/06/08(土) 19:20:03.20 ID:0.net よくこんな中二レベルのものを長々と貼れるよな 無職低学歴としか考えられない
601 :考える名無しさん :2024/06/08(土) 20:04:44.20 0.net >>600 >>598 無知がバレたら自殺しような? お前が無能だからお前ができないだけ つまりお前が生きてる意味ないだけ
602 :考える名無しさん :2024/06/08(土) 20:06:13.84 0.net >>600 ちなみに条件付き確率はベイズが発表しており カントが純粋理性批判を書く30年前であるww 条件付き確率を知らないバカゲンシュタインが無学すぎるだけwww
603 :考える名無しさん :2024/06/08(土) 20:06:41.24 0.net ### 情報理論とベイズ主義の立場の違い 情報理論とベイズ主義は確率や不確実性を扱うという点で関連がありますが、その適用範囲と立場には明確な違いがあります。特に、情報理論はあらゆる物理系がその枠組みから逃れられないことを厳密に証明しているのに対し、ベイズ主義はそのような証明を提供していません。この立場の違いを以下の点で説明します。 ### 1. 情報理論の普遍性 #### 物理系に対する適用範囲 情報理論は、物理系の通信能力や情報処理能力の限界を定量的に評価するために設計されています。この理論は、物理法則に基づいており、エントロピー、相互情報量、条件付き確率分布などの概念を使用して、システムの全ての状態とその間の情報の流れを厳密にモデル化します。 #### シャノンの定理と証明 情報理論は、クロード・シャノンによって確立されたもので、シャノンの情報理論には次のような重要な定理が含まれています。 - **シャノンの通信定理**: 任意の通信チャネルには、エラーなしに情報を伝達できる最大の情報量(チャネル容量)が存在し、このチャネル容量を超えない限り、任意の低いエラー率で情報を伝えることができる。 シャノンの定理は、情報理論があらゆる物理系に対して適用可能であり、その通信能力の限界を明確に定義することを証明しています。この定理により、情報理論は物理系の普遍的な枠組みとして機能します。 #### エントロピーと相互情報量 情報理論におけるエントロピーと相互情報量は、システムの不確実性や情報の伝達効率を測定するための基本的な概念です。これらの概念は、物理系の情報処理の本質を捉え、その限界を定量的に評価するための基礎を提供します。
604 :考える名無しさん :2024/06/08(土) 20:06:50.99 0.net ### 2. ベイズ主義の限界 #### 確率の主観的解釈 ベイズ主義は、確率を主観的な信念の尺度として扱い、新しい証拠が得られるたびに信念を更新する方法を提供します。ベイズの定理を用いて、事前確率を事後確率に更新するプロセスを中心にしています。しかし、ベイズ主義は、すべての物理系がこの枠組みから逃れられないことを証明するものではありません。 #### ベイズ主義の応用範囲 ベイズ主義は、主に統計推論や意思決定理論に適用されます。これは、新しい情報に基づいて確率を更新し、意思決定を行うための枠組みです。しかし、ベイズ主義は物理系の通信能力や情報処理能力の限界を定量的に評価するためのツールとして設計されていません。そのため、物理法則に基づいてあらゆる物理系に適用可能であることを証明するものではありません。 #### 情報理論との違い 情報理論は、物理系の情報処理の本質を捉えるために、確率分布、エントロピー、相互情報量を用いて厳密にシステムをモデル化します。これに対し、ベイズ主義は、確率を信念の尺度として扱い、統計推論や意思決定に焦点を当てています。このため、情報理論はあらゆる物理系に普遍的に適用可能であり、その限界を明確に定義しますが、ベイズ主義はそのような普遍性を持ちません。 ### まとめ 情報理論とベイズ主義の立場の違いは、情報理論が物理系の通信能力や情報処理能力の限界を厳密に証明し、あらゆる物理系がこの枠組みから逃れられないことを示している点にあります。情報理論は、エントロピーや相互情報量を用いてシステムの全ての状態とその間の情報の流れを完全にモデル化します。一方、ベイズ主義は確率を主観的な信念の尺度として扱い、新しい情報に基づいて確率を更新する方法を提供しますが、物理系に対する普遍的な適用性を証明するものではありません。したがって、情報理論は物理系の情報処理の性質を完全に網羅する普遍的な理論であると言えます。
605 :考える名無しさん :2024/06/14(金) 06:14:33.12 ID:0.net ウィトゲンシュタインと肛門
606 :考える名無しさん :2024/06/14(金) 09:25:14.08 ID:0.net もうすぐ終了です https://i.imgur.com/yDK0VXG.jpg
607 :考える名無しさん :2024/06/14(金) 09:49:59.62 ID:0.net >>606 情報サンキュー
375 KB
新着レスの表示
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver.24052200
本文 スレッドタイトル 投稿者