Forum ŚFiNiA Strona Główna ŚFiNiA
ŚFiNiA - Światopoglądowe, Filozoficzne, Naukowe i Artystyczne forum - bez cenzury, regulamin promuje racjonalną i rzeczową dyskusję i ułatwia ucinanie demagogii. Forum założone przez Wuja Zbója.
 
 FAQFAQ   SzukajSzukaj   UżytkownicyUżytkownicy   GrupyGrupy   GalerieGalerie   RejestracjaRejestracja 
 ProfilProfil   Zaloguj się, by sprawdzić wiadomościZaloguj się, by sprawdzić wiadomości   ZalogujZaloguj 

Algebra Kubusia (beta 2.0)

 
Napisz nowy temat   Odpowiedz do tematu    Forum ŚFiNiA Strona Główna -> Metodologia / Forum Kubusia
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 35963
Przeczytał: 15 tematów

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Wto 16:28, 13 Gru 2011    Temat postu: Algebra Kubusia (beta 2.0)

Beta 2.0

… wszystko co chcecie, żeby ludzie wam czynili, wy też im podobnie czyńcie …
Ewangelia Mateusza 7:12

[link widoczny dla zalogowanych]

Algebra Kubusia
Matematyka przedszkolaków

Autor: Kubuś - wirtualny Internetowy Miś
Naszym dzieciom dedykuję

Kim jest Kubuś ?
Kubuś - wirtualny Internetowy Miś, wysłannik obcej cywilizacji, którego zadaniem było przekazanie ludziom matematycznego fundamentu logiki człowieka.

Podręcznik w oryginale:
Algebra Kubusia

W pracach nad podręcznikiem nowej matematyki bezcennej pomocy udzielili Kubusiowi przyjaciele:
Barah (sfinia), Barycki (śfinia), Emde (sfinia), Exodim (ateista.pl) Fizyk (ateista.pl), Gavrila_Ardalionovitch (ateista.pl), HeHe (ateista.pl), Idiota (ateista.pl), Incognito (ateista.pl), Irbisol (sfinia), Jeremiasz Szary (sfinia), Krowa (śfinia), Krystkon (śfinia), Makaron czterojajeczny (sfinia), Macjan (sfinia), Marcin Kotasiński (śfinia), Michał Dyszyński (śfinia), Miki (sfinia), NoBody (ateista.pl), Paloma (ateista.pl), Quebaab (ateista.pl), Rafał3006 (sfinia), Rexerex (ateista.pl), Rogal (matematyka.pl), Sogors (ateista.pl), Słupek (ateista.pl), tomektomek (ateista.pl), Uczy (wolny), Volrath (sfinia), Windziarz (ateista.pl), WujZbój (sfinia), Wyobraźnia (ateista.pl), zbigniewmiller (sfinia) i inni

Szczególne podziękowania dla:
Wuja Zbója - znakomitego nauczyciela małego Kubusia, dzięki któremu Kubuś nauczył się poprawnie patrzeć na algebrę Boole’a od strony matematycznej.
Volratha - za decydującą o wszystkim dyskusję
Macajna - za ciekawą dyskusję podczas której jako jedyny Ziemianin podał poprawną, matematyczną definicję warunku wystarczającego.
Fizyka, Windziarza i Sogorsa – za fantastyczną dyskusję na ateiście.pl
Idioty - dzięki któremu Kubuś zapisał ŚFIŃSKIE definicje implikacji i równoważności
Incognito - za podsunięcie pomysłu zapisania całej algebry Kubusia w zbiorach
Palomy i Quebaaba - za finałową dyskusję


Wstęp:

Każdy człowiek, od 5-cio latka po profesora, doskonale zna algebrę Kubusia i posługuje się nią na co dzień w naturalnym języku mówionym.

Definicja algebry Kubusia:
Algebra Kubusia = Algebra zbiorów => Definicje spójników logicznych => Definicje operatorów logicznych => Algebra bramek logicznych
Definicje spójników logicznych => Algebra naturalnego języka mówionego => Logika człowieka

Fundamentem algebry Kubusia są aksjomaty Kubusia, czyli po prostu pełna zero-jedynkowa lista operatorów logicznych zapisana w formie równań algebry Kubusia (Boole’a!).
Równania te wyprowadzone zostały z naturalnego języka 5-cio Latków (cześć I), oraz niezależnie z nowej teorii zbiorów (cześć II). Cześć III to zastosowanie algebry Kubusia w świecie techniki (bramki logiczne), natomiast cześć IV to zastosowanie algebry Kubusia w zaawansowanej logice człowieka.

Wszystkie części są w 100% zgodne z naturalną logiką człowieka. Dla zrozumienia dowolnej z nich wystarczy naturalna logika człowieka, nie jest potrzebna wiedza z pozostałych części, gdyż wszystkie zaczynają się od zerowego poziomu matematycznego.


Spis treści:

Część I
Algebra Kubusia – matematyka przedszkolaków


1.0 Aksjomatyka algebry Kubusia

2.0 Operatory AND i OR
2.1 Definicja operatora AND
2.2 Symboliczna definicja operatora AND
2.3 Definicja operatora OR
2.4 Symboliczna definicja operatora OR
2.5 Operator AND w tabelach zero-jedynkowych
2.6 Operator OR w tabelach zero-jedynkowych

3.0 Operatory implikacji i równoważności
3.1 Operator implikacji prostej
3.2 Symboliczna definicja operatora implikacji prostej
3.3 Operator Implikacji odwrotnej
3.4 Symboliczna definicja implikacji odwrotnej
3.5 Operator równoważności
3.6 Symboliczna definicja równoważności

4.0 Śfińskie definicje implikacji i równoważności
4.1 Śfińska definicja Implikacji prostej
4.2 Śfińska definicja implikacji odwrotnej
4.3 Przemienność argumentów w implikacji
4.4 Śfińska definicja równoważności
4.5 Gimnazjalne definicje implikacji i równoważności
4.6 Algorytmy dowodzenia twierdzeń matematycznych

Część II
Algebra Kubusia – Nowa Teoria Zbiorów


5.0 Błąd w I aksjomacie Zermelo
5.1 Algebra Kubusia – Nowa Teoria Zbiorów
5.2 Operatory OR i AND w zbiorach
5.3 Definicja spójnika „i”(*) w zbiorach
5.4 Definicja spójnika „lub”(+) w zbiorach
5.5 Definicja operatora OR w zbiorach
5.6 Definicja operatora AND w zbiorach
5.7 Matematyczne związki między OR i AND

6.0 Operatory implikacji i równoważności w zbiorach
6.1 Zdanie zawsze prawdziwe
6.2 Definicja operatora implikacji prostej
6.3 Definicja operatora implikacji odwrotnej
6.4 Równoważność w zbiorach
6.5 Gimnazjalne definicje implikacji i równoważności
6.6 Implikacje nietypowe

Część III
Algebra Kubusia w równaniach logicznych


7.0 Algebra Kubusia w równaniach logicznych
7.1 Prawa wynikające z definicji operatora AND
7.2 Prawa wynikające z definicji operatora OR
7.3 Najważniejsze prawa algebry Kubusia
7.4 Metody upraszczania równań algebry Kubusia
7.5 Tworzenie równań algebry Kubusia z tabel zero-jedynkowych

8.0 Aksjomatyczne definicje operatorów logicznych
8.1 Abstrakcyjny model operatora logicznego
8.2 Operatory logiczne ~~> i N(~~>)
8.3 Operatory transmisji P i Q
8.4 operatory negacji NP i NQ
8.5 Operator implikacji prostej zdefiniowany spójnikiem “i”(*)

Część IV
Algebra Kubusia w służbie lingwistyki


9.0 Algebra Kubusia w służbie lingwistyki
9.1 Podstawowe prawa redukcji zdań
9.2 Świat niezdeterminowany
9.3 Świat zdeterminowany
9.4 Prawa wynikające z definicji sumy logicznej
9.5 Prawa wynikające z definicji iloczynu logicznego
9.6 Operatory OR i AND w świecie zdeterminowanym

10.0 Operatory implikacji w świecie zdeterminowanym
10.1 Podstawowe analizy implikacji prostej i odwrotnej
10.2 Złożona implikacja prosta w świecie zdeterminowanym
10.3 Złożona implikacja odwrotna w świecie zdeterminowanym

11.0 Obietnice i groźby
11.1 Obietnica
11.2 Groźba
11.3 Analiza złożonej obietnicy
11.4 Analiza złożonej groźby
11.5 Obietnice i groźby w ujęciu filozoficznym
11.6 Rodzaje obietnic

12.0 Obietnice i groźby w równaniach matematycznych
12.1 Obietnica w równaniach matematycznych
12.2 Groźba w równaniach matematycznych



Część I
Algebra Kubusia - matematyka przedszkolaków


1.0 Aksjomatyka algebry Kubusia

Wikipedia:
Aksjomat (postulat, pewnik) (gr. αξιωμα [aksíoma] – godność, pewność, oczywistość) – jedno z podstawowych pojęć logiki matematycznej. Od czasów Euklidesa uznawano, że aksjomaty to zdania przyjmowane za prawdziwe, których nie dowodzi się w obrębie danej teorii matematycznej.
We współczesnej matematyce definicja aksjomatu jest nieco inna:
Aksjomaty są zdaniami wyodrębnionymi spośród wszystkich twierdzeń danej teorii, wybranymi tak, aby wynikały z nich wszystkie pozostałe twierdzenia tej teorii. Taki układ aksjomatów nazywany jest aksjomatyką.

Aksjomatyka algebry Kubusia to po prostu wszystkie możliwe zero-jedynkowe definicje operatorów logicznych, znane ludziom od ponad 100 lat.

Aksjomatyczne definicje operatorów logicznych w algebrze Boole’a i algebrze Kubusia:
Kod:

p q  OR NOR  AND NAND  <=> XOR  => N(=>) ~> N(~>)  ~~>  N(~~>)  P NP  Q NQ
1 1  1   0    1   0     1   0   1    0   1    0     1    0      1 0   1 0
1 0  1   0    0   1     0   1   0    1   1    0     1    0      1 0   0 1
0 1  1   0    0   1     0   1   1    0   0    1     1    0      0 1   1 0
0 0  0   1    0   1     1   0   1    0   1    0     1    0      0 1   0 1


Na dzień dzisiejszy operatory te są poprawnie rozszyfrowane z punktu odniesienia banalnych bramek logicznych będących sprzętowym fundamentem każdego komputera (algebra Boole’a).

Trzeba tu jednak zdecydowanie odróżnić sprzęt od oprogramowania. Sprzęt komputerowy to fundamentalnie co innego niż program komputerowy napisany przez człowieka. Pisząc program komputerowy posługujemy się naturalną logiką człowieka, jak do tej pory totalnie nierozszyfrowaną od strony matematycznej.

Zadaniem tego podręcznika jest pokazanie jak nieprawdopodobnie banalna jest od strony matematycznej naturalna logika człowieka, algebra Kubusia, którą doskonale znają i posługują się w praktyce wszyscy od 5-cio latka po profesora.

W pierwszej części podręcznika za aksjomaty przyjmiemy naturalny język 5-cio latka, pokazując iż podlega on pod aksjomatyczne definicje operatorów wyżej.

W drugiej części za aksjomaty przyjmiemy nową teorie zbiorów udowadniając, że teoria ta również podlega pod aksjomatyczne definicje operatorów wyżej i jest w 100% zgodna z naturalną logiką człowieka.

Aksjomaty Kubusia

I aksjomat Kubusia to operator AND w równaniach algebry Kubusia (Boole’a!)
Y=p*q
~Y=~p+~q
II aksjomat Kubusia to operator OR w równaniach algebry Kubusia (Boole’a!)
Y=p+q
~Y=~p*~q
III aksjomat Kubusia to operator implikacji prostej w równaniu algebry Kubusia (Boole’a!)
p=>q = ~p~>~q
IV aksjomat Kubusia to operator implikacji odwrotnej w równaniu algebry Kubusia (Boole’a!)
p~>q = ~p=>~q
V aksjomat Kubusia to operator równoważności w równaniu algebry Kubusia (Boole’a!)
p<=>q = (p=>q)*(~p=>~q)
VI aksjomat Kubusia to naturalny spójnik „może” ~~>, wystarczy pokazać jeden przypadek prawdziwy
p~~>q


2.0 Operatory AND i OR

Notacja:
1 - prawda, zawsze i wszędzie, niezależna od logiki dodatniej i ujemnej
0 - fałsz, zawsze i wszędzie, niezależny od logiki dodatniej i ujemnej
~ - symbol przeczenia NIE

Prawo podwójnego przeczenia:
p=~(~p)
Przykład:
Jestem uczciwy = Nieprawdą jest ~(…), że jestem nieuczciwy
U = ~(~U)

Prawda # Fałsz
1 # 0
# - różne
Aksjomaty znane ludziom od tysiącleci:
Prawda to NIE fałsz
1 = ~0
Fałsz to NIE prawda
0 = ~1

Spójniki logiczne
W całej matematyce mamy zaledwie pięć spójników logicznych.
Operatory OR i AND:
* - spójnik „i” w mowie potocznej
+ - spójnik „lub” w mowie potocznej
Operatory implikacji i równoważności:
=> - warunek wystarczający, spójnik „musi” w całym obszarze matematyki
~> - warunek konieczny, spójnik „może” w implikacji (nie w równoważności !)
~~> - naturalny spójnik „może” wystarczy pokazać jeden przypadek prawdziwy

Kolejność wykonywania działań:
nawiasy, „i”(*), „lub”(+), =>, ~>, ~~>
W spójnikach =>, ~>, ~~> kolejność nie ma znaczenia bo są to operatory wyłącznie dwuargumentowe, czyli po lewej i prawej stronie tego znaku może być wyłącznie funkcja logiczna ze spójnikami „i”(*) oraz „lub”(+)

Zmienna binarna:
Zmienna binarna (wejście cyfrowe w układzie logicznym) to zmienna mogąca przyjmować w osi czasu wyłącznie dwie wartości:
1 - prawda
0 - fałsz
Przykłady zmiennych binarnych:
p, q

Funkcja logiczna:
Funkcja logiczna (wyjście cyfrowe w układzie logicznym) to funkcja n-zmiennych binarnych połączonych spójnikami „i”(*) albo „lub”(+) mogąca w osi czasu przyjmować wyłącznie 0 albo 1 w zależności od aktualnej wartości zmiennych binarnych.
gdzie:
n - dowolna ilość zmiennych binarnych
Y - funkcja logiczna
Przykład:
Y=p*q+p*~q+~p*q

Definicja spójnika „i”.
Iloczyn logiczny (spójnik „i”(*) ) n-zmiennych binarnych jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1
Y=p*q
Co matematycznie oznacza:
Y=1 <=> p=1 i q=1
Analogia w celu łatwego zapamiętania:
1*1*1…*1 =1
1*0*1…*1 =0
Zauważmy że mamy tu 100% analogię do mnożenia znanego ze szkoły podstawowej, stąd nazwa „iloczyn logiczny”. Oczywiście znaczek „*” nie ma nic wspólnego z mnożeniem, to po prostu symbol spójnika „lub” z naturalnego języka mówionego.

Definicja spójnika „lub”(+)
Suma logiczna (spójnik „lub”(+) ) n-zmiennych binarnych jest równa 1 wtedy i tylko wtedy gdy którakolwiek zmienna jest równa 1
Y=p+q
Co matematycznie oznacza:
Y=1 <=> p=1 lub q=1
Analogia w celu łatwego zapamiętania:
0+0+0….+0 =0
1+1+0….+0 =1
Mamy tu „drobną” różnicę w stosunku do dodawania znanego ze szkoły podstawowej. Oczywiście znaczek „+” nie ma nic wspólnego z dodawaniem, to spójnik „lub”(+) z naturalnego języka mówionego.

Równoważna definicja spójnika „lub”:
Y=p*q + p*~q + ~p*q
co matematycznie oznacza:
Y=1 <=> = (p=1i q=1) lub (p=1 i ~q=1) lub (~p=1 i q=1)
Oczywiście matematycznie zachodzi:
Y = p+q = p*q + p*~q + ~p*q

Najważniejsze prawa algebry Kubusia (i Boole’a) wynikające z powyższych definicji

Spójnik „i”(*):
1*1 =1
1*0 =0
p*1 =p
p*0 =0
p*~p=0

Spójnik „lub”(+):
1+1 =1
1+0 =1
p+0 =p
p+ 1 =1
p+~p = 1
Fundament algebry Kubusia (Boole’a):
p*~p =0
p+~p =1
Przykłady:
Jutro pójdę do kina i nie pójdę do kina
Y=K*~K=0 – zdanie sprzeczne wewnętrznie
Jutro pójdę do kina lub nie pójdę do kina
Y = K+~K=1
Cokolwiek nie zrobię to dotrzymam słowa, nie ma tu szans na kłamstwo.

Prawo przejście do logiki przeciwnej:
Negujemy zmienne i wymieniamy operatory na przeciwne

Definicja logiki dodatniej I ujemnej w operatorach OR I AND:
Funkcja logiczna ze spójnikami „i”(*) oraz „lub”(+) zapisana jest w logice dodatniej, gdy nie jest zanegowana
Y - logika dodatnia, dotrzymam słowa (wystąpi prawda)
~Y - logika ujemna, skłamię (wystąpi fałsz)

Operator AND:
Operator AND to złożenie spójnika “I”(*) w logice dodatniej ze spójnikiem “lub”(+) w logice ujemnej
Y=p*q
co matematycznie oznacza:
Y=1 <=> p=1 i q=1
Y=1 - prawdą (=1) jest, że dotrzymam słowa wtedy i tylko wtedy gdy zajdzie p=1 i q=1
Negujemy zmienne i wymieniamy operatory na przeciwne
~Y=~p+~q
Co matematycznie oznacza:
~Y=1 <=> ~p=1 lub ~q=1
~Y=1 - prawdą (=1) jest, że skłamię (~Y) wtedy i tylko wtedy gdy zajdzie ~p=1 lub ~q=1

Operator OR:
Operator OR to złożenie spójnika “lub”(+) w logice dodatniej ze spójnikiem “i”(*) w logice ujemnej
Y=p+q
co matematycznie oznacza:
Y=1 <=> p=1 lub q=1
Y=1 - prawdą (=1) jest, że dotrzymam słowa wtedy i tylko wtedy gdy zajdzie p=1 lub q=1
Negujemy zmienne i wymieniamy operatory na przeciwne
~Y=~p*~q
co matematycznie oznacza:
~Y=1 <=> ~p=1 i ~q=1
~Y=1 - prawdą (=1) jest, że skłamię (~Y) wtedy i tylko wtedy gdy zajdzie ~p=1 i ~q=1

Bardzo ważna notacja algebry Kubusia (Boole’a):
Zapis symboliczny dowolnego zdania musi uwidoczniać wszelkie przeczenia użyte w zdaniu.
Stąd przy odtwarzaniu zdania z zapisu symbolicznego interesują nas wyłącznie przeczenia przy zmiennych.
Przykład:
Jutro pójdę do kina i do teatru
Y=K*T
Jutro nie pójdę do kina i nie pójdę do teatru
Y=~K*~T


2.1 Definicja operatora AND

Definicja operatora AND
Operator AND to złożenie spójnika „i”(*) w logice dodatniej (bo Y) ze spójnikiem „lub”(+) w logice ujemnej (bo~Y)
W algebrze Kubusia operatory logiczne nie maja swoich znaczków, gdyż nie jest możliwe aby w jakimkolwiek zdaniu wypowiedzianym występował operator logiczny. W zdaniach wypowiedzianych zawsze mamy do czynienia ze spójnikami, nigdy z operatorami.

Przykład:
A.
Jutro pójdę do kina i do teatru
Y=K*T
Co matematycznie oznacza:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1) i do teatru (T=1)
A: K*T =Y
Y=1 <=> K=1 i T=1
… a kiedy skłamię ?
Skłamię we wszystkich pozostałych kombinacjach przeczeń K i T czyli:
B: ~K*~T=~Y - skłamię (~Y=1) gdy nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
lub
C: ~K*T =~Y - skłamię (~Y=1) gdy nie pójdę do kina (~K=1) i pójdę do teatru (T=1)
lub
D: K*~T = ~Y - skłamię (~Y=1) gdy pójdę do kina (K=1) i nie pójdę do teatru (~T=1)

To samo w równaniu algebry Kubusia (Boole’a):
E.
~Y = ~K*~T + ~K*T + K*~T
co matematycznie oznacza:
~Y=1 <=> (~K=1 i ~T=1) lub (~K=1 i T=1) lub (K=1 i ~T=1)

… zacznijmy od początku:
A.
Jutro pójdę do kina i do teatru
Y=K*T
.. a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę spójników
~Y=~K+~T
czyli:
E.
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1) lub nie pójdę do teatru (~T=1)
~Y=~K+~T
Co matematycznie oznacza:
~Y=1 <=> ~K=1 lub ~T=1
Prawdą jest (=1), że skłamię (~Y) jeśli nie pójdę do kina (~K=1) lub nie pójdę do teatru (~T=1)

oczywiście matematycznie zachodzi:
~Y = ~Y
czyli:
~Y = ~K+~T = ~K*~T + ~K*T + K*~T

Ustawmy zdania A,B,C,D w tabeli symbolicznej:
Kod:

Symboliczna tabela operatora AND
Dotrzymam słowa Y
Y=K*T
A: K*T =Y
.. a kiedy skłamię?
Przejście do logiki ujemnej poprzez
negację zmiennych i wymianę operatorów
Skłamię ~Y
E: ~Y=~K+~T = ~K*~T+~K*T+K*~T
B: ~K*~T=~Y
C. ~K*T =~Y
D: K*~T =~Y

Związek logiki dodatniej i ujemnej:
Y = ~(~Y) – prawo podwójnego przeczenia
Podstawiając A i E mamy prawo de’Morgana:
Y = K*T = ~(~K+~T)
A1.
Nie może się zdarzyć ~(…), że jutro nie pójdę do kina (~K=1) lub nie pójdę do teatru (~T=1)
Y = ~(~K+~T)
Oczywiście każdy normalny człowiek, mając do wyboru dwa równoważne zdania A i A1 wybierze A, bo jest prostsze.

Twierdzenie Sowy:
W świecie zdeterminowanym, gdzie stan wszystkich zmiennych logicznych jest znany, zdanie prawdziwe z dowolnego operatora logicznego ulega redukcji do spójnika „i”(*).

Nasz przykład:
A.
Jutro pójdę do kina i do teatru
Y=K*T
Co matematycznie oznacza:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1) i do teatru (T=1)
A: K*T =Y
Y=1 <=> K=1 i T=1

Załóżmy że jest już pojutrze i znamy rozwiązanie.
D.
Skłamałem (~Y=1) bo wczoraj byłem w kinie (K=1) i nie byłem w teatrze (~T=1)
~Y=K*~T
co matematycznie oznacza:
~Y=1 <=> K=1 i ~T=1
Prawda jest (=1), że skłamałem (~Y), bo wczoraj byłem w kinie (K=1) i nie byłem w teatrze (~T=1)

Zauważmy że w zdaniu D mamy ~T=1 natomiast w zdaniu A mamy T=1, jednak jedynki znaczą dokładnie to samo, niezależnie czy jest to logika dodatnia (A: T) czy ujemna (D: ~T).
1 - prawda
T=1 - prawda jest (=1) że byłem w teatrze (T=1)
~T=1 - prawdą jest (=1) że nie byłem w teatrze (~T=1)

Wypełnijmy tabele symboliczną operatora AND dla punktu odniesienia D:
D: ~Y=K*~T
czyli:
~Y=1, Y=0
K=1, ~K=0
~T=1, T=0
Kod:

Skłamię ~Y
~Y=~K+~T = ~K*~T+~K*T+K*~T
B: ~K*~T=~Y     /0*1 =0
C. ~K*T =~Y     /0*0 =0
D: K*~T =~Y     /1*1 =1
.. a kiedy dotrzymam słowa?
Przejście do logiki przeciwnej poprzez
negację zmiennych i wymianę operatorów
Dotrzymam słowa Y
Y=K*T
A: K*T =Y       /1*0 =0

Jak widzimy, w świecie zdeterminowanym podstawiamy pod zmienne wartości logiczne wynikłe ze 100% determinizmu. W tym przypadku wynikowe 0 i 1 generujemy na podstawie definicji spójnika „i”!

2.2 Symboliczna definicja operatora AND

Przepiszmy powyższą definicje symboliczną używając symboli ogólnych p i q.

Symboliczna definicja operatora AND:
Kod:

Dotrzymam słowa Y
Y=p*q
A: p*q =Y
.. a kiedy skłamię?
Przejście do logiki ujemnej poprzez
negację zmiennych i wymianę operatorów
Skłamię ~Y
~Y=~p+~q = ~p*~q+~p*q+p*~q
B: ~p*~q=~Y
C. ~p*q =~Y
D: p*~q =~Y


Symboliczną definicję operatora AND możemy zakodować z dwóch możliwych punktów odniesienia.

I.
Punkt odniesienia: zdanie Y=p*q

Jeśli za punkt odniesienia (zdanie wypowiedziane) przyjmiemy zdanie Y=p*q to otrzymamy zero-jedynkową definicję operatora AND.
Y=p*q
czyli:
Y=1, ~Y=0
p=1, ~p=0
q=1, ~q=0
Kod:

Dotrzymam słowa Y
Y=p*q
A: p*q =Y     /1 1 =1
.. a kiedy skłamię?
Przejście do logiki ujemnej poprzez
negację zmiennych i wymianę operatorów
Skłamię ~Y
~Y=~p+~q = ~p*~q+~p*q+p*~q
B: ~p*~q=~Y   /0 0 =0
C. ~p*q =~Y   /0 1 =0
D: p*~q =~Y   /1 0 =0

O zdaniu Y=p*q możemy powiedzieć że spełnia definicję operatora AND.

II.
Punkt odniesienia: zdanie ~Y=~p*~q

Jeśli za punkt odniesienia (zdanie wypowiedziane) przyjmiemy zdanie ~Y=~p+~q to otrzymamy zero-jedynkową definicje operatora OR.
~Y=~p+~q
czyli:
~Y=1, Y=0
~p=1, p=0
~q=1, q=0
Kod:

Skłamię ~Y
~Y=~p+~q = ~p*~q+~p*q+p*~q
B: ~p*~q=~Y     /1 1 =1
C. ~p*q =~Y     /1 0 =1
D: p*~q =~Y     /0 1 =1
.. a kiedy dotrzymam słowa?
Przejście do logiki przeciwnej poprzez
negację zmiennych i wymianę operatorów
Dotrzymam słowa Y
Y=p*q
A: p*q =Y       /0 0 =0

O zdaniu ~Y=~p+~q możemy powiedzieć, że spełnia definicję operatora OR.

Wnioski:
1.
W tabeli zero-jedynkowej dowolnego operatora logicznego zera i jedynki po stronie wejścia p i q oznaczają:
1 - brak przeczenia względem punktu odniesienia (zdania wypowiedzianego)
0 - jest przeczenie względem punktu odniesienia (zdania wypowiedzianego)
Po stronie wyjścia Y mamy:
1 - prawda
0 - fałsz


2.3 Definicja operatora OR

Definicja operatora OR:
Operator OR to złożenie spójnika „lub”(+) w logice dodatniej (bo Y) ze spójnikiem „i”(*) w logice ujemnej (bo ~Y).

Przykład:
A.
Jutro pójdę do kina lub do teatru
Y=K+T
Co matematycznie oznacza:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1) lub do teatru (T=1)
Y=K+T
Y=1 <=> K=1 lub T=1

.. a kiedy skłamię?
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne
D: ~Y=~K*~T
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y=~K*~T
~Y=1 <=> ~K=1 i ~T=1

Oczywiście w pozostałych przeczeniach K i T (w stosunku do zdania D) dotrzymam słowa, czyli:
A: K*T =Y - dotrzymam słowa (Y=1) gdy jutro pójdę do kina (K=1) i do teatru (T=1)
lub
B: K*~T=Y - dotrzymam słowa (Y=1) gdy jutro pójdę do kina (K=1) i nie pójdę do teatru (~T=1)
lub
C: ~K*T =Y - dotrzymam słowa (Y=1) gdy jutro nie pójdę do kina (~K=1) i pójdę do teatru (T=1)

To samo w równaniu algebry Kubusia (Boole’a):
Y = K*T + K*~T + ~K*T
co matematycznie oznacza:
Y=1 <=> (K=1 i T=1) lub (K=1 i ~T=1) lub (~K=1 i T=1)

Oczywiście:
Y=Y
zatem:
Y = K+T = K*T + K*~T + ~K*T

Ułóżmy A,B,C,D w tabeli symbolicznej:
Kod:

Dotrzymam słowa Y
E: Y=K+T = K*T+K*~T+~K*T
A: K*T =y
B: K*~T=Y
C: ~K*T=Y
.. a kiedy skłamię?
Przejście do logiki ujemnej poprzez
negacje zmiennych i wymianę operatorów
Skłamię ~Y
~Y=~K*~T
D: ~K*~T=~Y

Związek logiki dodatniej i ujemnej:
Y = ~(~Y) - prawo podwójnego przeczenia
Podstawiając E i D mamy prawo de’Morgana:
Y = K+T = ~(~K*~T)
A1.
Nie może się zdarzyć ~(…), że jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
Y = ~(~K*~T)
Oczywiście każdy normalny człowiek, mając do wyboru dwa równoważne zdania A i A1 wybierze A, bo jest prostsze.


2.4 Symboliczna definicja operatora OR

Przepiszmy tabelę symboliczna wyżej używając symboli ogólnych p i q

Symboliczna definicja operatora OR:
Kod:

Dotrzymam słowa Y
E: Y=p+q = p*q+p*~q+~p*q
A: p*q =y
B: p*~q=Y
C: ~p*q=Y
.. a kiedy skłamię?
Przejście do logiki ujemnej poprzez
negacje zmiennych i wymianę operatorów
Skłamię ~Y
~Y=~p*~q
D: ~p*~q=~Y

O zdaniu Y=p+q możemy powiedzieć, że spełnia definicję operatora OR.
Symboliczną definicję operatora OR możemy zakodować zero-jedynkowo z dwóch możliwych punktów odniesienia.

I.
Punkt odniesienia: Zdanie Y=p+q

Jeśli za punkt odniesienia przyjmiemy zdanie Y=p+q to otrzymamy zero-jedynkową definicje operatora OR.
Y=p+q
czyli:
Y=1, ~Y=0
p=1, ~p=0
q=1, ~q=0
Kod:

Dotrzymam słowa Y
E: Y=p+q = p*q+p*~q+~p*q
A: p*q =y     /1 1 =1
B: p*~q=Y     /1 0 =1
C: ~p*q=Y     /0 1 =1
.. a kiedy skłamię?
Przejście do logiki ujemnej poprzez
negacje zmiennych i wymianę operatorów
Skłamię ~Y
~Y=~p*~q
D: ~p*~q=~Y   /0 0 =0

O zdaniu Y=p+q możemy powiedzieć, że spełnia definicję operatora OR.

II.
Punkt odniesienia: Zdanie ~Y=~p*~q

jeśli za punkt odniesienia przyjmiemy zdanie ~Y=~p*~q to otrzymamy zero-jedynkową definicję operatora AND.
~Y=~p*~q
czyli:
~Y=1, Y=0
~p=1, p=0
~q=1, q=0
Kod:

Skłamię ~Y
~Y=~p*~q
D: ~p*~q=~Y    /1 1 =1
.. a kiedy dotrzymam słowa?
Przejście do logiki przeciwnej poprzez
negacje zmiennych i wymianę operatorów
Dotrzymam słowa Y
E: Y=p+q = p*q+p*~q+~p*q
A: p*q =y      /0 0 =0
B: p*~q=Y      /0 1 =0
C: ~p*q=Y      /1 0 =0

O zdaniu ~Y=~p*~q możemy powiedzieć, że spełnia definicję operatora AND.


2.5 Operator AND w tabelach zero-jedynkowych

Kod:

p q Y=p*q   ~p ~q ~Y=~(p*q)=~p+~q  Y=~(~p+~q)
1 1  =1      0  0   =0             1
0 0  =0      1  1   =1             0
0 1  =0      1  0   =1             0
1 0  =0      0  1   =1             0
p q  AND            NAND           

W ostatnim wierszu pokazano znaczenie operatora AND z punktu widzenia bramek logicznych:
Definicja bramki AND:
AND =1<=>p=1 i q=1
Definicja bramki NAND:
NAND=0 <=> p=1 i q=1
Jak widzimy w bramka NAND to zanegowane wyjście bramki AND. W naturalnej logice człowieka NAND nie jest potrzebny bo zastępujemy go funkcją w logice ujemnej ~Y.

Tożsamość kolumn trzeciej i ostatniej jest dowodem poprawności prawa de’Morgana:
p*q = ~(~p+~q)

Jak wiemy, zera i jedynki po stronie p i q to po prostu wszystkie możliwe przeczenia nagłówka tabeli.
1 - brak przeczenia
0 - przeczenie nagłówka
W operatorach AND i OR interesuje nas kiedy dotrzymam słowa (Y=1) oraz kiedy skłamię (~Y=1), tylko i wyłącznie te linie kodujemy w odniesieniu do nagłówka tabeli.

Kod:

p q Y=p*q   ~p ~q ~Y=~(p*q)=~p+~q=~p*~q+~p*q+p*~q
p*q  =Y      0  0   = 0
0 0  =0     ~p*~q   =~Y
0 1  =0     ~p* q   =~Y
1 0  =0      p*~q   =~Y
Punkt odniesienia:
p=1, ~p=0   ~p=1, p=0
q=1, ~q=0   ~q=1, q=0

Linii z zerami w wyniku człowiek totalnie nie używa.
Wynika z tego, że w naturalnym języku mówionym operujemy wyłącznie spójnikami „i”(*) oraz „lub”(+), nigdy operatorami AND i OR.


2.6 Operator OR w tabelach zero-jedynkowych
Kod:

p q Y=p+q   ~p ~q ~Y=~(p+q)=~p*~q  Y=~(~p*~q)
1 1  =1      0  0   =0             1
1 0  =1      0  1   =0             1
0 1  =1      1  0   =0             1
0 0  =0      1  1   =1             0
p q  OR             NOR           

W ostatnim wierszu pokazano znaczenie operatora OR z punktu widzenia bramek logicznych:
Definicja bramki OR:
OR =1<=>p=1 lub q=1
Definicja bramki NOR:
NOR=0 <=> p=1 lub q=1
Jak widzimy w bramka NOR to zanegowane wyjście bramki OR. W naturalnej logice człowieka NOR nie jest potrzebny bo zastępujemy go funkcją w logice ujemnej ~Y.

Tożsamość kolumn trzeciej i ostatniej jest dowodem poprawności prawa de’Morgana:
Y = p+q = ~(~p*~q)

Zera i jedynki po stronie p i q to po prostu wszystkie możliwe przeczenia nagłówka tabeli.
1 - brak przeczenia
0 - przeczenie nagłówka
W operatorach AND i OR interesuje nas kiedy dotrzymam słowa (Y=1) oraz kiedy skłamię (~Y=1), tylko i wyłącznie te linie kodujemy w odniesieniu do nagłówka tabeli.
Kod:

 p  q  Y=p+q=p*q+p*~q+~p*q  ~p ~q ~Y=~(p+q)=~p*~q
 p* q =Y                     0  0   =0
 p*~q =Y                     0  1   =0
~p* q =Y                     1  0   =0
 0  0 =0                    ~p*~q   =~Y
Punkt odniesienia:
p=1, ~p=0                   ~p=1, p=0
q=1, ~q=0                   ~p=1. p=0

Linii z zerami w wyniku człowiek totalnie nie używa.
Wynika z tego, że w naturalnym języku mówionym operujemy wyłącznie spójnikami „i”(*) oraz „lub”(+), nigdy operatorami AND i OR.


3.0 Operatory implikacji i równoważności

Zdanie w algebrze Kubusia
W algebrze Kubusia zdanie to poprawne lingwistycznie zdanie sensowne.
Zdanie musi mieć sens w danym języku.

Zdanie warunkowe:
Jeśli p to q
gdzie:
p - poprzednik
q - następnik
W algebrze Kubusia w zdaniu „Jeśli p to q” poprzednik musi być powiązany z następnikiem warunkiem wystarczającym lub koniecznym albo naturalnym spójnikiem „może” ~~>, wystarczy jedna prawda. Wszelkie sensowne zdania „Jeśli…to…” w naturalnym języku mówionym spełniają ten warunek.

Logika dodatnia i ujemna w operatorach implikacji:
Zdanie „Jeśli p to q” zapisane jest w logice dodatniej wtedy i tylko wtedy gdy q jest niezanegowane (q)
Zdanie „Jeśli p to q” zapisane jest w logice ujemnej wtedy i tylko wtedy gdy q jest zanegowane (~q)
Prawa Kubusia:
p=>q = ~p~>~q – definicja operatora implikacji prostej w równaniu algebry Kubusia (Boole’a!)
p~>q = ~p=>~q – definicja operatora implikacji odwrotnej w równaniu algebry Kubusia (Boole’a)

Definicja warunku wystarczającego => w logice dodatniej (bo q):
Kod:

p=>q =1
p=>~q =0

p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika że p jest wystarczające dla q
Z czego wynika że drugie zdanie musi być fałszem
gdzie:
=> - warunek wystarczający, spójnik „musi” („na pewno”) miedzy p i q w całym obszarze matematyki

Przykład:
Jeśli jutro będzie padać to na pewno => będzie pochmurno
P=>CH =1
Jeśli jutro będzie padać to na pewno => nie będzie pochmurno
P=>~CH=0
Wniosek:
Warunek wystarczający w zdaniu P=>CH spełniony
Logika dodatnia bo CH.

[b]Definicja warunku wystarczającego => w logice ujemnej (bo ~q):
Kod:

~p=>~q =1
~p=>q =0

~p=>~q
Jeśli zajdzie ~p to na pewno => zajdzie ~q
Z czego wynika że ~p jest wystarczające dla ~q
Z czego wynika że drugie zdanie musi być fałszem
gdzie:
=> - warunek wystarczający, spójnik „musi” („na pewno”) miedzy p i q w całym obszarze matematyki

Przykład:
Jeśli jutro nie będzie pochmurno to na pewno => nie będzie padało
~CH=>~P =1
Jeśli jutro nie będzie pochmurno to na pewno => będzie padało
~CH=>P =0
Wniosek:
Warunek wystarczający w zdaniu ~CH=>~P spełniony
Logika ujemna bo ~P.

[b]Definicja warunku koniecznego ~> w algebrze Kubusia (Boole’a)

Warunek konieczny ~> między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.
p~>q = ~p=>~q – I prawo Kubusia
~p~>~q = p=>q – II prawo Kubusia
gdzie:
=> - warunek wystarczający, spójnik „musi” („na pewno”) miedzy p i q w całym obszarze matematyki
~> - warunek konieczny, w implikacji spójnik „może” miedzy p i q (nie w równoważności! )

Z powyższego wynika, że całą logikę w zakresie implikacji możemy sprowadzić do badania łatwych w analizie warunków wystarczających.


3.1 Operator implikacji prostej

Definicja implikacji prostej
Implikacja prosta to złożenie warunku wystarczającego w logice dodatniej (bo q) z warunkiem koniecznym w logice ujemnej (bo ~q)

Przykład:
Warunek wystarczający w logice dodatniej (bo q)
A.
Jeśli jutro będzie padało to na pewno => będzie pochmurno
P=>CH=1 – twarda prawda, gwarancja matematyczna
B.
Jeśli jutro będzie padało to na pewno => nie będzie pochmurno
P=>~CH=0 – twardy fałsz, wynikły tylko i wyłącznie ze zdania A
.. a jeśli jutro nie będzie padało?
Prawo Kubusia:
P=>CH = ~P~>~CH
C.
Jeśli jutro nie będzie padało to może ~> nie być pochmurno
~P~>~CH=1 – miękka prawda, może zajść ale nie musi
LUB
D.
Jeśli jutro nie będzie padało to może ~~> być pochmurno
~P~~>CH=1 – miękka prawda, może zajść ale nie musi

W zdaniu C zachodzi warunek konieczny na mocy prawa Kubusia.
C: ~P~>~CH = A: P=>CH =1
Prawa strona jest prawdą, zatem w zdaniu C zachodzi warunek konieczny
Interpretacja warunku koniecznego w logice ujemnej (bo ~q):
Wymuszając padanie deszczu, wymuszamy istnienie chmur

W zdaniu D nie zachodzi warunek konieczny bo prawo Kubusia:
D: ~P~>CH = B: P=>~CH =0
Prawa strona (zdanie B) jest fałszem, zatem w zdaniu D nie zachodzi warunek konieczny
Zdanie D jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy sama możliwość zaistnienia.

Zapiszmy powyższa analizę w wersji skróconej:
Kod:

Warunek wystarczający w logice dodatniej (bo CH)
A: P=>CH=1
B: P=>~CH=0
.. a jeśli nie będzie padało?
Prawo Kubusia:
P=>CH = ~P~>~CH
Warunek konieczny w logice ujemnej (bo ~CH)
C: ~P~>~CH=1
D: ~P~~>CH=1


3.2 Symboliczna definicja operatora implikacji prostej

Przepiszmy powyższą tabele w postaci symbolicznej z użyciem symboli p i q.

Symboliczna definicja implikacji prostej.
Kod:

Warunek wystarczający w logice dodatniej (bo q)
A: p=>q=1
B: p=>~q=0
.. a jeśli zajdzie ~p
Prawo Kubusia:
p=>q = ~p~>~q
Warunek konieczny w logice ujemnej (bo ~q)
C: ~p~>~q=1
D: ~p~~>q=1


Symboliczną definicje implikacji prostej możemy zakodować z dwóch rożnych punktów odniesienia.
Prawo Kubusia:
p=>q = ~p~>~q – definicja implikacji prostej

I.
Punkt odniesienia: zdanie A

Jeśli za punkt odniesienia przyjmiemy zdanie A to otrzymamy zero-jedynkową definicję operatora implikacji prostej.
A: p=>q
czyli:
p=1, ~p=0
q=1, ~q=0
Kod:

A: p=>q=1      /1 1 =1
B: p=>~q=0     /1 0 =0
.. a jeśli zajdzie ~p
Prawo Kubusia:
p=>q = ~p~>~q
C: ~p~>~q=1    /0 0 =1
D: ~p~~>q=1    /0 1 =1

O zdaniu A możemy powiedzieć, że spełnia zero-jedynkowa definicję operatora implikacji prostej, w skrócie:
Zdanie A jest implikacją prostą w logice dodatniej (bo q)

II.
Punkt odniesienia: zdanie C

Jeśli za punkt odniesienia przyjmiemy zdanie C to otrzymamy zero-jedynkową definicję operatora implikacji odwrotnej.
A: ~p~~>~q
czyli:
~p=1, p=0
~q=1, q=0
Kod:

C: ~p~>~q=1     /1 1 =1
D: ~p~~>q=1     /1 0 =1
.. a jeśli zajdzie p?
Prawo Kubusia:
~p~>~q = p=>q
A: p=>q=1       /0 0 =1
B: p=>~q=0      /0 1 =0

O zdaniu C możemy powiedzieć, że spełnia zero-jedynkowa definicję operatora implikacji odwrotnej, w skrócie:
Zdanie C jest implikacją odwrotną w logice ujemnej (bo ~q)


3.3 Operator Implikacji odwrotnej

Definicja implikacji odwrotnej:
Implikacja odwrotna to złożenie warunku koniecznego w logice dodatniej (bo q) z warunkiem wystarczającym w logice ujemnej (bo ~q)

Przykład:
Warunek konieczny w logice dodatniej (bo q):
A.
Jeśli jutro będzie pochmurno to może ~> padać
CH~>P =1 – miękka prawda, może zajść ale nie musi
LUB
B.
Jeśli będzie pochmurno to może ~~> nie padać
CH~~>~P=1 – miękka prawda, może zajść ale nie musi
… a jeśli nie będzie pochmurno?
Prawo Kubusia:
CH~>P = ~CH=>~P
Warunek wystarczający w logice ujemnej (bo ~q)
C.
Jeśli jutro nie będzie pochmurno to na pewno => nie będzie padać
~CH=>~P=1 – twarda prawda, gwarancja matematyczna
D.
Jeśli jutro nie będzie pochmurno to na pewno => będzie padać
~CH=>P=0 – twardy fałsz, wynikły tylko i wyłącznie ze zdania C

Zauważmy że:
A: CH~>P = C: ~CH=>~P =1
Zdanie C jest prawdziwe, zatem w zdaniu A musi zachodzić warunek konieczny ~>.
Znaczenie warunku koniecznego w logice dodatniej (bo P)
Zabieramy chmury wykluczając możliwość padania.

Zauważmy, że jak jutro będzie pochmurno to mamy rzucanie monetą, może padać (zdanie A) albo może nie padać (zdanie B).
stąd:
~> - warunek konieczny, spójnik „może” między p i q, w implikacji to po prostu „rzucanie monetą”

Zdanie B jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy sama możliwość zaistnienia.
W zdaniu B nie zachodzi warunek konieczny bo nie zachodzi tu prawo Kubusia:
B: CH~>~P = D: ~CH=>P=0
Prawa strona jest fałszem, zatem z lewej strony nie zachodzi warunek konieczny ~>

Zapiszmy powyższą analizę zdania A przez wszystkie możliwe przeczenia p i q w postaci skróconej.

Symboliczna definicja implikacji odwrotnej:
Kod:

Warunek konieczny w logice dodatniej (bo P)
A: CH~>P =1
B: CH~~>~P=1
.. a jeśli nie będzie pochmurno?
Prawo Kubusia:
CH~>P = ~CH=>~P
Warunek wystarczający w logice ujemnej (bo ~P)
C: ~CH=>~P=1
D: ~CH=>P =0



3.4 Symboliczna definicja implikacji odwrotnej

Przepiszmy powyższą tabele symboliczną z użyciem symboli ogólnych p i q

Symboliczna definicja implikacji odwrotnej:
Kod:

Warunek konieczny w logice dodatniej (bo p)
A: p~>q =1
B: p~~>~q=1
.. a jeśli zajdzie ~p?
Prawo Kubusia:
p~>q = ~p=>~q
Warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1
D: ~p=>q =0


Symboliczną definicje implikacji odwrotnej możemy zakodować zero jedynkowo z dwóch możliwych punktów odniesienia.
Prawo Kubusia:
p~>q = ~p=>~q

I.
Punkt odniesienia: zdanie A

Jeśli za punkt odniesienia (zdanie wypowiedziane) przyjmiemy zdanie A to otrzymamy zero-jedynkową definicję operatora implikacji odwrotnej.
A: p~>q
czyli:
p=1, ~p=0
q=1, ~q=0
stąd mamy:
Kod:

Warunek konieczny w logice dodatniej (bo q)
A: p~>q =1     /1 1 =1
B: p~~>~q=1    /1 0 =1
.. a jeśli zajdzie ~p?
Prawo Kubusia:
p~>q = ~p=>~q
Warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1    /0 0 =1
D: ~p=>q =0    /0 1 =0

O zdaniu A możemy powiedzieć, że spełnia zero-jedynkowa definicję operatora implikacji odwrotnej, w skrócie:
Zdanie A jest implikacją odwrotną w logice dodatniej (bo q)

II.
Punkt odniesienia: zdanie C

Jeśli za punkt odniesienia (zdanie wypowiedziane) przyjmiemy zdanie C to otrzymamy zero-jedynkową definicję operatora implikacji prostej.
C: ~p=>~q
czyli:
~p=1, p=0
~q=1, q=0
stąd mamy:
Kod:

Warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1    /1 1 =1
D: ~p=>q =0    /1 0 =0
.. a jeśli zajdzie p?
Prawo Kubusia:
~p=>~q = p~>q
Warunek konieczny w logice dodatniej (bo q)
A: p~>q =1     /0 0 =1
B: p~~>~q=1    /0 1 =1

O zdaniu C możemy powiedzieć, że spełnia zero-jedynkowa definicję operatora implikacji prostej, w skrócie:
Zdanie C jest implikacją prostą w logice ujemnej (bo ~q)


3.5 Operator równoważności

Definicja równoważności:
Równoważność to jednoczesne zachodzenie warunku wystarczającego p=>q i koniecznego p~>q
A.
p<=>q = (p=>q)*(p~>q)
<=> - równoważność, spójnik „wtedy i tylko wtedy” między p i q
Kod:

          Y1            Y2   Y=Y1*Y2
A:  p=> q=1  X:  p~> q =1    1
B:  p=>~q=0  X:  p~~>~q=1    0
X: ~p~>~q=1  C: ~p=>~q =1    1
X: ~p~~>q=1  D: ~p=> q =0    0

Na mocy definicji odpowiednie linie w kolumnach Y1 i Y2 traktowane są spójnikiem „i”(*), tak wiec warunek konieczny ~> nie jest dostępny w świecie rzeczywistym (kolumna Y).
Na zewnątrz dostępny jest wyłącznie warunek wystarczający => w logice dodatniej (Y1/A bo q), oraz warunek wystarczający w logice ujemnej (Y2/C bo ~q).
Nie ma tu wiec mowy o spójniku „może” ~> (rzucaniu monetą) znanym z implikacji.
Jak widzimy z powyższego definicja warunku koniecznego jest tu spełniona na poziomie wirtualnym:
p~>q = ~p=>~q
~p~>~q = p=>q
Podstawiając do A mamy definicję równoważności dostępną w świecie rzeczywistym:
p<=>q = (p=>q)*(~p=>~q)

Ze schematu wyżej widać, że prawa strona to wyłącznie warunki wystarczające, żadne tam implikacje!

Przykład:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR=>~KR)

Dowód poprzez analizę przez wszystkie możliwe przeczenia TR i KR.
TR<=>KR = (TR=>KR)*(~TR=>~KR)
TR=>KR - warunek wystarczający w logice dodatniej (bo KR)
A.
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1 - twarda prawda, gwarancja matematyczna
B.
Jeśli trójkąt jest równoboczny to na pewno => nie ma kątów równych
TR=>~KR=0 – twardy fałsz wynikły wyłącznie z A
… a jeśli trójkąt nie jest równoboczny ?
~TR<=>~KR = (~TR=>~KR)*(TR=>KR)
~TR=>~KR - warunek wystarczający w logice ujemnej (bo ~KR)
C.
Jeśli trójkąt nie jest równoboczny to na pewno =. nie ma kątów równych
~TR=>~KR=1 - twarda prawda, gwarancja matematyczna
D.
Jeśli trójkąt nie jest równoboczny to na pewno =>ma kąty równe
~TR=>KR=0 - twardy fałsz wynikły wyłącznie z C

Tabela symboliczna równoważności:
Kod:

TR<=>KR=(TR=>KR)*(~TR=>~KR)
TR=>KR – warunek wystarczający w logice dodatniej (bo KR)
A: TR=>KR =1
B: TR=>~KR=0
~TR<=>~KR=(~TR=>~KR)*(TR=>KR)
~TR=>~KR – warunek wystarczający w logice ujemnej (bo ~KR)
C: ~TR=>~KR=1
D: ~TR=>KR =0


3.6 Symboliczna definicja równoważności

Przepiszmy powyższą tabelę symboliczną równoważności w wersji ogólnej, przy użyciu symboli p i q

Tabela symboliczna równoważności:
Kod:

p<=>q=(p=>q)*(~p=>~q)
p=>q – warunek wystarczający w logice dodatniej (bo q)
A: p=>q =1
B: p=>~q=0
~p<=>~q=(~p=>~q)*(p=>q)
~p=>~q – warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1
D: ~p=>q =0

Tabelę zero-jedynkową równoważności otrzymujemy kodując tabelę symboliczną w odniesieniu do zdania p<=>q albo ~p<=>~q
I
Punkt odniesienia: zdanie A

Jeśli za punkt odniesienia przyjmiemy zadnie A to otrzymamy zero-jedynkową definicję równoważności.
p=>q
p=1, ~p=0
q=1, ~q=0
Kod:

p<=>q=(p=>q)*(~p=>~q)
p=>q – warunek wystarczający w logice dodatniej (bo q)
A: p=>q =1    /1 1 =1
B: p=>~q=0    /1 0 =0
~p<=>~q=(~p=>~q)*(p=>q)
~p=>~q – warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1   /0 0 =1
D: ~p=>q =0   /0 1 =0

Analiza zdania p=>q przez wszystkie możliwe przeczenia p i q dała nam zero-jedynkową definicje równoważności.
Precyzyjnie zdanie p=>q to wyłącznie warunek wystarczający, jednak po udowodnieniu kolejnego warunku wystarczającego w logice ujemnej ~p=>~q możemy powiedzieć, że zdanie A to równoważność.
Dopiero teraz możemy użyć symbolu równoważności <=> i wypowiedzieć zdanie A w formie równoważności:
p zajdzie wtedy i tylko wtedy gdy zajdzie q
p<=>q = (p=>q)*(~p=>~q)

II
Punkt odniesienia: zdanie C

Jeśli za punkt odniesienia przyjmiemy zadnie C to również otrzymamy zero-jedynkową definicję równoważności.
~p=>~q
~p=1, p=0
~q=1, q=0
Kod:

~p<=>~q=(~p=>~q)*(p=>q)
~p=>~q - warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1    /1 1 =1
D: ~p=>q =0    /1 0 =0
p<=>q=(p=>q)*(~p=>~q)
p=>q - warunek wystarczający w logice dodatniej (bo q)
A: p=>q =1     /0 0 =1
B: p=>~q=0     /0 1 =0



4.0 Śfińskie definicje implikacji i równoważności

Definicja warunku wystarczającego w logice dodatniej (bo q):
Kod:

p=>q=1
p=>~q=0

p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika że p musi być wystarczające dla q
gdzie:
=> - warunek wystarczający, spójnik „musi” w całym obszarze logiki

Definicja warunku wystarczającego w logice ujemnej (bo ~q):
Kod:

~p=>~q=1
~p=>q=0

Jeśli zajdzie ~p to na pewno => zajdzie ~q
Z czego wynika że ~p musi być wystarczające dla ~q

Definicja warunku koniecznego:
Warunek konieczny ~> między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.
~p~>~q = p=>q – prawo Kubusia, definicja implikacji prostej
p~>q = ~p=>~q – prawo Kubusia, definicja implikacji odwrotnej
Oczywiście wynika z tego, że całą logikę możemy sprowadzić do badania banalnych warunków wystarczających.
gdzie:
=> - warunek wystarczający, spójnik „musi” w całym obszarze logiki
~> - warunek konieczny, w implikacji spójnik „może” między p i q (rzucanie monetą)


4.1 Śfińska definicja Implikacji prostej

Definicja:
Implikacja prosta to zachodzenie wyłącznie warunku wystarczającego w kierunku p=>q
Definicja warunku wystarczającego =>:
p=>q=1
Definicja warunku koniecznego ~>, prawo Kubusia
p~>q = ~p=>~q =0

Dowód formalny w tabeli zero-jedynkowej:
Kod:

p  q  p=>q=1  #  p  q  p~>q ~p  ~q ~p=>~q=0
1  1   =1        1  1   =1   0   0   =1
1  0   =0        1  0   =1   0   1   =1
0  0   =1        0  0   =1   1   1   =1
0  1   -1        0  1   =0   1   0   =0

Na mocy definicji zero-jedynkowej zachodzi:
p=>q=1 # p~>q = ~p=>~q=0
czyli:
Jeśli lewa strona znaku # jest prawdą to prawa strona musi być fałszem

W implikacji interesuje nas co się stanie jeśli zajdzie p i co się stanie jeśli zajdzie ~p.
Zatem tylko i wyłącznie te zmienne wejściowe p i q kodujemy symbolicznie w odniesieniu do nagłówka tabeli.

Dowód formalny w tabeli symbolicznej:
Kod:

p   q  p=>q=1  #  p    q  p~>q ~p  ~q ~p=>~q=0
p=> q   =1        p~>  q  =1    0   0   =1
p=>~q   =0        p~~>~q  =1    0   1   =1
0   0   =1        0    0  =1   ~p=>~q   =1
0   1   =1        0    1  =0   ~p=> q   =0
Punkt odniesienia:
p=1, ~p=0         p=1, ~p=0    ~p=1, p=0
q=1, ~q=0         q=1, ~q=0    ~q=1, q=0

Na mocy definicji zero-jedynkowej zachodzi:
p=>q=1 # p~>q = ~p=>~q=0
czyli:
Jeśli lewa strona znaku # jest prawdą to prawa strona musi być fałszem

Przykład:
A.
Warunek wystarczający:
Jeśli jutro będzie padało to na pewno => będzie pochmurno
P=>CH=1
P=>~CH=0
Warunek wystarczający spełniony

Badamy warunek konieczny:
B.
Jeśli jutro będzie padało to może ~> być pochmurno
P~>CH = ~P=>~CH=0
Warunek konieczny niespełniony bo:
C.
Jeśli jutro nie będzie padało to na pewno => nie będzie pochmurno
~P=>~CH=0
Wniosek:
Zdanie A spełnia śfińską definicję implikacji prostej, w skrócie, jest implikacją prostą


4.2 Śfińska definicja implikacji odwrotnej

Definicja:
Implikacja odwrotna to zachodzenie wyłącznie warunku koniecznego między p i q
Definicja warunku koniecznego ~>, prawo Kubusia
p~>q = ~p=>~q=1
Definicja warunku wystarczającego =>:
p=>q=0

Dowód formalny w tabeli zero-jedynkowej:
Kod:

p  q  p~>q ~p  ~q ~p=>~q=1  #  p  q  p=>q=0
1  1   =1   0   0   =1         1  1   =1
1  0   =1   0   1   =1         1  0   =0
0  0   =1   1   1   =1         0  0   =1
0  1   =0   1   0   =0         0  1   =1

Na mocy definicji zero-jedynkowej zachodzi:
p~>q = ~p=>~q=1 # p=>q=0
czyli:
Jeśli lewa strona znaku # jest prawdą to prawa strona musi być fałszem

W implikacji interesuje nas co się stanie jeśli zajdzie p i co się stanie jeśli zajdzie ~p.
Zatem tylko i wyłącznie te zmienne wejściowe p i q kodujemy symbolicznie w odniesieniu do nagłówka tabeli.

Dowód formalny w tabeli symbolicznej:
Kod:

p    q  p~>q ~p  ~q ~p=>~q=1  #  p   q  p=>q=0
p~>  q   =1   0   0   =1         p=> q   =1
p~~>~q   =1   0   1   =1         p=>~q   =0
0    0   =1  ~p=>~q   =1         0   0   =1
0    1   =0  ~p=> q   =0         0   1   =1
Punkt odniesienia:
p=1, ~p=0    ~p=1, p=0           p=1, ~p=0
q=1, ~q=0    ~q=1, q=0           q=1, ~q=0

Na mocy definicji symbolicznej zachodzi:
p~>q = ~p=>~q=1 # p=>q=0
czyli:
Jeśli lewa strona znaku # jest prawdą to prawa strona musi być fałszem

Przykład:
A.
Jeśli jutro będzie pochmurno to może ~> padać
CH~>P
Prawo Kubusia:
CH~>P = ~CH=>~P=1
czyli:
B.
Jeśli jutro nie będzie pochmurno to na pewno => nie będzie padać
~CH=>~P=1
Prawa strona równania Kubusia jest prawdą, zatem w zdaniu A zachodzi warunek konieczny CH~>P=1.

Badamy warunek wystarczający:
C.
Jeśli jutro będzie pochmurno to na pewno => będzie padać
CH=>P=0
Warunek wystarczający niespełniony
Wniosek:
Zdanie A spełnia śfińską definicję implikacji odwrotnej, w skrócie, jest implikacją odwrotną


4.3 Przemienność argumentów w implikacji

W implikacji argumenty nie są przemienne.
Dowód formalny:
Kod:

p  q p=>q q=>p  | p  q p~>q q~>p
1  1  =1   =1   | 1  1  =1   =1
1  0  =0   =1   | 1  0  =1   =0
0  0  =1   =1   | 0  0  =1   =1
0  1  =1   =0   | 0  1  =0   =1
Punkt odniesienia:
    p=>q        | p~>q

Brak tożsamości w kolumnach p=>q i q=>p oraz w kolumnach p~>q i q~>p jest dowodem braku przemienności argumentów w implikacji.
Oczywiście matematycznie na mocy definicji zachodzi:
p=>q # p~>q
To są dwa fundamentalnie różne punkty odniesienia, zatem nie wolno mieszać kolumn miedzy kreską „|”.
Oczywiście w obrębie tych dwóch różnych punktów odniesienia zachodzi brak przemienności argumentów.

Lewa strona znaku „|”:
p=>q # q=>p
Jeśli strona ma wartość logiczna 1 to druga musi być 0.
Przykład:
A.
Jeśli jutro będzie padało to na pewno => będzie pochmurno
P=>CH=1
Zdanie odwrotne:
B.
jeśli jutro będzie pochmurno to na pewno => będzie padać
CH=>P=0

Prawa strona znaku „|”:
Przykład:
A.
Jeśli jutro będzie pochmurno to może ~> padać
CH~>P
Prawo Kubusia:
CH~>P = ~CH=>~P=1
czyli:
B.
Jeśli jutro nie będzie pochmurno to na pewno => nie będzie padać
~CH=>~P=1
Prawa strona tożsamości Kubusia jest prawdą, zatem z lewej strony musi zachodzić warunek konieczny ~>.
CH~>P=1
Zdanie odwrotne:
Jeśli jutro będzie padać to może być pochmurno
P~>CH
Prawo Kubusia:
P~>CH = ~P=>~CH=0
czyli:
B.
jeśli jutro nie będzie padać to na pewno => nie będzie pochmurno
~P=>~CH=0
Prawa strona tożsamości Kubusia jest fałszem, zatem z lewej strony nie zachodzi warunek konieczny ~>:
P~>CH=0


4.4 Śfińska definicja równoważności

Równoważność to jednoczesne zachodzenie warunku wystarczającego i koniecznego
p<=>q = (p=>q)*(p~>q)
Definicja warunku wystarczającego =>:
p=>q=1
Definicja warunku koniecznego ~>, prawo Kubusia
p~>q = ~p=>~q =1
Definicja równoważności:
p<=>q = (p=>q)*(p~>q) = (p=>q)*(~p=>~q)

Dowód formalny w tabeli zero-jedynkowej:
Kod:

p  q p=>q p~>q ~p ~q ~p=>~q (p=>q)*(p~>q) (p=>q)*(~p=>~q)
1  1  =1  =1    0  0   =1     =1            =1
1  0  =0  =1    0  1   =1     =0            =0
0  0  =1  =1    1  1   =1     =1            =1
0  1  =1  =0    1  0   =0     =0            =0

Definicja równoważności:
p<=>q = (p=>q)*(p~>q) = (p=>q)*(~p=>~q) =1*1=1

W równoważności interesuje nas co się stanie jeśli zajdzie p i co się stanie jeśli zajdzie ~p.
Zatem tylko i wyłącznie te zmienne wejściowe p i q kodujemy symbolicznie w odniesieniu do nagłówka tabeli.

Dowód formalny w tabeli symbolicznej:.
Kod:

p   q p=>q p~>q ~p  ~q ~p=>~q (p=>q)*(p~>q) (p=>q)*(~p=>~q)
p=> q  =1  =1    0   0   =1     =1            =1
p=>~q  =0  =1    0   1   =1     =0            =0
0   0  =1  =1   ~p=>~q   =1     =1            =1
0   1  =1  =0   ~p=> q   =0     =0            =0
Punkt odniesienia:
p=1, ~p=0      ~p=1, p=0
q=1, ~q=0      ~q=1, q=0

Definicja równoważności:
p<=>q = (p=>q)*(p~>q) = (p=>q)*(~p=>~q) =1*1=1

Jak widzimy w przedostatniej kolumnie warunek konieczny p~>q jest wycięty przez kolumnę p=>q. W świecie rzeczywistym jest on dostępny wyłącznie w postaci wirtualnej.
Oczywiście nie jest to spójnik „może” ~> znany z implikacji, bowiem w równoważności, jak widzimy w dwóch ostatnich kolumnach nie ma miejsca na rzucanie monetą, brak trzech jedynek w kolumnie!
W równoważności udowadniamy dwa warunki wystarczające p=>q i ~p=>~q.

Stąd mamy symboliczną definicję równoważności:
Kod:

Symboliczna tabela równoważności:
p<=>q = (p=>q)*(~p=>~q
p=>q – warunek wystarczający w logice dodatniej (bo q)
A: p=>q =1
B: p=>~q=0
… a jeśli nie zajdzie p?
~p<=>~q = (~p=>~q)*(p=>q)
~p=>~q – warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1
D: ~p=>q =0

Tabele zero-jedynkowa równoważności dla punktu odniesienia:
p<=>q
p=1, ~p=0
q=1, ~q=0
stąd:
Kod:

Symboliczna tabela równoważności:
p<=>q = (p=>q)*(~p=>~q
p=>q – warunek wystarczający w logice dodatniej (bo q)
A: p=>q =1     /1 1 =1
B: p=>~q=0     /1 0 =0
… a jeśli nie zajdzie p?
~p<=>~q = (~p=>~q)*(p=>q)
~p=>~q – warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1    /0 0 =1
D: ~p=>q =0    /0 1 =0

Zauważmy że dla punktu odniesienia:
~p<=>~q
Otrzymamy identyczna tabelę zero-jedynkową równoważności co jest dowodem tożsamości:
p<=>q = ~p<=>~q = (p=>q)*(~p=>~q)

Wnioski:
1.
W równoważności argumenty są przemienne, czyli wszystko jedno co nazwiemy p a co nazwiemy q.
2.
W równoważności zdania p=>q i ~p=>~q analizowane przez wszystkie możliwe przeczenia p i q również dają identyczną definicję równoważności.
3.
Na podstawie powyższego o zdaniu:
p=>q
możemy powiedzieć iż jest to:
p=>q =1 - warunek wystarczający (precyzyjnie)
p=>q=1 - równoważność, mniej precyzyjnie, również dobrze, ale dopiero po udowodnieniu równoważności!

W równoważności zachodzi przemienność argumentów, zatem tu i tylko tu zachodzi prawo kontrapozycji:
~p=>~q = q=>p
stąd mamy równoważną definicje równoważności:
p<=>q = (p=>q)*(~p=>~q) = (p=>q)*(q=>p)

Twierdzenie Rexerexa:
Jeśli równoważność jest udowodniona to zachodzi wszystko co tylko możliwe:
p<=>q = ~p<=>~q = (p=>q)*(~p=>~q) = p=>q = ~p=>~q = q=>p = p<=>q = (p=>q)*(q=>p) itd


4.5 Gimnazjalne definicje implikacji i równoważności

Gimnazjalna definicja implikacji:
Implikacja to wynikanie => (warunek wystarczający) wyłącznie w jedna stronę
A: p=>q=1
B: q=>p=0
Jeśli zdanie jest implikacją to nie może być równoważnością:
p<=>q = (p=>q)*(q=>p)=1*0 =0

Gimnazjalna definicja równoważności:
Równoważność to wynikanie => (warunek wystarczający) w dwie strony
A: p=>q=1
B: q=>p=1
Jeśli zdanie jest równoważnością prawdziwą to nie może być implikacją prawdziwą:
p<=>q = (p=>q)*(q=>p) = 1*1=1
Wyjaśnienie niżej.

Zauważmy, że warunki wystarczające => w zdaniach A są identyczne w implikacji i równoważności.
Definicja warunku wystarczającego:
Kod:

p=>q=1
p=>~q=0

p=>q
Jeśli zajdzie p to na pewno => zajdzie q

Zatem po udowodnieniu p=>q=1 o zdaniu A możemy powiedzieć tylko i wyłącznie iż jest to warunek wystarczający =>, żadna tam implikacja czy równoważność bo jeszcze tego nie udowodniliśmy!

Precyzyjnie na temat zdania A możemy się wypowiedzieć wyłącznie po udowodnieniu B, co pokazano w definicjach równoważności wyżej.


4.6 Algorytmy dowodzenia twierdzeń matematycznych

Definicja warunku wystarczającego => (wynikania)
Kod:

A: p=> q=1
B: p=>~q=0

p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika że p musi być wystarczające dla q
gdzie:
=> - symbol warunku wystarczającego, spójnik „na pewno” => w całym obszarze matematyki

Trzy sposoby dowodzenia warunku wystarczającego:
1.
Sprawdzamy czy dla każdego p zachodzi q
TAK, to koniec dowodu
2.
Szukamy jednego przypadku spełniającego A oraz jednego przypadku spełniającego B czyli:
Kod:

A: p~~> q=1
B: p~~>~q=1

gdzie:
~~> - naturalny spójnik „może”, wystarczy znaleźć jeden przypadek prawdziwy

Algorytm:
A1
Jeśli znajdziemy A i znajdziemy B to:
p=>q=0
A2
Jeśli znajdziemy A i wykluczymy B to:
p=>q=1

Przykład A1:
Jeśli liczba jest podzielna przez 2 to może ~~> być podzielna przez 8
P2~~>P8=1 bo 8
P2~~>~P8=1 bo 2
stąd:
P2=>P8=0

Przykład A2
Jeśli liczba jest podzielna przez 8 to może ~~> być podzielna przez 2
P8~~>P2=1 bo 8
P8~~>~P2=0 - nie ma takiej liczby
Stąd:
P8=>P2=1

3.
Szukamy jednego kontrprzykładu obalającego A:
Kod:

A: p=> q=1

Przykład:
Jeśli liczba jest podzielna przez 2 to na pewno => jest podzielna przez 8
P2=>P8=0 bo 2

W praktyce najprościej korzystać ze sposobu 3.

Algorytm dowodzenia równoważności

Rozważmy zdanie:
Jeśli trójkąt jest równoboczny to ma kąty równe
TR=>KR

Oczywisty warunek wystarczający po udowodnieniu którego mamy taka sytuację
Kod:

Warunek wystarczający w logice dodatniej bo KR
TR=>KR=1    /1 1 =1
TR=>~KR=0   /1 0 =0
… a dalej mamy ciemność.
??????      /0 0 =x
??????      /0 1 =x

Jeśli zatem udowodniliśmy warunek wystarczający TR=>KR to mamy ciemność, o zdaniu A możemy powiedzieć tylko i wyłącznie iż jest to warunek wystarczający o definicji jak wyżej, żadna tam implikacja czy równoważność, bo jeszcze tego nie udowodniliśmy!

Tą ciemność możemy zamienić w jasność dwoma sposobami:
A.
Badamy warunek wystarczający dla zdania odwrotnego:
KR=>TR=1
i wszystko jasne, przemienność argumentów zachodzi zatem zdanie A to piękna równoważność
Dopiero teraz możemy zapisać to co niżej!
TR<=>KR = (TR=>KR)*(KR=>TR)=1*1=1

B.
Równoważne do powyższego jest rozświetlenie ciemności w powyższej tabeli!
Kod:

Warunek wystarczający w logice dodatniej bo KR
TR=>KR=1    /1 1 =1
TR=>~KR=0   /1 0 =0
Badamy warunek wystarczający w logice ujemnej bo ~KR
… i mamy jasność bo:
~TR=>~KR=1  /0 0 =1
~TR=>KR=0   /0 1 =0

Tabele zero-jedynkowa równoważności otrzymujemy kodując tabele symboliczną zgodnie ze zdaniem A:
TR=>KR=1
TR=1, ~TR=0
KR=1, ~KR=0
Jak widzimy równoważny do A sposób to po prostu badanie kolejnego warunku wystarczającego w logice ujemnej.

Algorytm dowodzenia implikacji

Rozważmy zdanie:
Jeśli liczba jest podzielna przez 8 to jest podzielna przez 2
P8=>P2

Oczywisty warunek wystarczający po udowodnieniu którego mamy taka sytuację
Kod:

Warunek wystarczający w logice dodatniej bo P2
P8=>P2=1    /1 1 =1
P8=>~P2=0   /1 0 =0
… a dalej mamy ciemność.
??????      /0 0 =x
??????      /0 1 =x

Jeśli zatem udowodniliśmy warunek wystarczający P8=>P2 to mamy ciemność, o zdaniu A możemy powiedzieć tylko i wyłącznie iż jest to warunek wystarczający o definicji jak wyżej, żadna tam implikacja czy równoważność, bo jeszcze tego nie udowodniliśmy!

Tą ciemność możemy zamienić w jasność dwoma sposobami:
A.
Badamy warunek wystarczający dla zdania odwrotnego:
P2=>P8=0 bo 0
i wszystko jasne, zachodzi brak przemienności argumentów zachodzi zatem zdanie A to piękna implikacja prosta.
Oczywiście równoważność gdzie zachodzi przemienność argumentów jest tu wykluczona.
P8<=>P2 = (P8=>P2)*(P2=>P8) = 1*0 =0
B.
Równoważne do powyższego jest rozświetlenie ciemności w powyższej tabeli!
Kod:

Warunek wystarczający w logice dodatniej bo P2
P8=>P2=1         /1 1 =1
P8=>~P2=0        /1 0 =0
Badamy warunek wystarczający w logice ujemnej bo ~P2
… i mamy mam jasność bo:
~P8=>~P2=0 bo 2
Wniosek:
Zdanie P8=>P2 to piękna implikacja prosta
Walimy ją zatem prawem Kubusia:
P8=>P2 = ~P8~>~P2
czyli:
Jeśli liczba nie jest podzielna przez 8 to może nie być podzielna przez 2
~P8~>~P2=1 bo 3  /0 0 =1
LUB
~P8~~>P2=1 bo 2  /0 1 =1

Tabele zero-jedynkową implikacji otrzymujemy kodując tabele symboliczną zgodnie ze zdaniem A:
P8=>P2=1
P8=1, ~P8=0
P2=1, ~P2=0
Jak widzimy równoważny do A sposób rozstrzygnięcia o implikacji to po prostu brak zachodzenia warunku wystarczającego w logice ujemnej.
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
Rafal3011




Dołączył: 16 Wrz 2011
Posty: 142
Przeczytał: 0 tematów

Skąd: GDAŃSK
Płeć: Mężczyzna

PostWysłany: Wto 16:29, 13 Gru 2011    Temat postu:

Część II
Algebra Kubusia - Nowa Teoria Zbiorów



5.0 Błąd w I aksjomacie Zermelo

Dzisiejsza teoria zbiorów, [link widoczny dla zalogowanych], zbudowana jest na aksjomatyce Zermelo-Fraenkela.
Już pierwszy z tych aksjomatów jest ewidentnie błędny, bo niepełny, czyli niezgodny z aksjomatycznymi, zero-jedynkowymi definicjami operatorów logicznych.

[link widoczny dla zalogowanych]
Jeżeli zbiory a i b mają te same elementy, to są identyczne:
/\a /\b (/\x (x@a <=> x@b) => a=b
@ - zawiera się w..

Z powyższego aksjomatu wynika tylko i wyłącznie ta definicja równoważności:
p<=>q = (p=>q)*(q=>p)
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(KR=>TR)

oczywiście zbiory:
TR=KR
są tożsame

Fundament w Teorii Mnogości zbudowany na tej podstawie jest taki:
1.
Równoważność to jeden zbiór (podzbiór pełny czyli zbiory TR i KR są tymi samymi zbiorami)
2
Implikacja to dwa zbiory (podzbiór niepełny)

Okrutna rzeczywistość jest fundamentalnie inna!

Aksjomatyczna definicja równoważności wynikająca bezpośrednio z zero-jedynkowej definicji równoważności jest taka:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR=>~KR)=1*1 =1

Zauważmy, że w tej definicji mamy do czynienia z dwoma fundamentalnie różnymi zbiorami:
TR=KR # ~TR=~KR
Gdzie:
Zbiór trójkątów równobocznych (TR) = Zbiór trójkątów o równych kątach (KR)
Zbiór trójkątów nierównobocznych (~TR) = Zbiór trójkątów o nierównych kątach (~KR)
Wspólna dziedzina:
D – zbiór wszystkich trójkątów
W algebrze Boole’a zachodzi:
TR+~TR=1 - zbiór ~TR jest dopełnieniem zbioru TR do wspólnej dziedziny D
TR*~TR=0 - żaden element zbioru ~TR nie należy do zbioru TR (zbiory rozłączne)

Zatem tu i tylko tu mamy prawidłową interpretację równoważności w zbiorach:
1.
Równoważność to dwa zbiory
2.
Implikacja to trzy zbiory, co wynika bezpośrednio z aksjomatycznej, zero-jedynkowej definicji implikacji.

Aksjomatyka Zermelo-Fraenkela totalnie nie opisuje implikacji!

Wnioski:
1.
I aksjomat Zermelo dla równoważności jest niepełny (stąd problemy)
2.
Teoria Mnogości nie widzi dwóch zbiorów w równoważności i trzech zbiorów w implikacji

Z powyższego powodu mamy w dzisiejszej matematyce taką równoważność prawdziwą:
2+2=4 wtedy i tylko wtedy gdy wszyscy murzyni są czarni
224<=>MC=1
… autentyczny przykład z matematyki.pl
Złamana tu została zasada tej samej dziedziny po stronie p i q w równoważności - w algebrze Kubusia ta „równoważność” jest fałszywa

Także pojęcie implikacji jest we współczesnej matematyce bez sensu:
Jeśli kura jest psem to człowiek ma dwie nogi
KP=>2N=1
Brak wspólnej części zbiorów p i q - w algebrze Kubusia ta „implikacja” jest fałszywa.


5.1 Algebra Kubusia – Nowa Teoria Zbiorów

Pojęcie zbioru jako zbioru przypadkowych elementów jest matematycznie bez sensu.

Jednorodność zbioru:
Zbiór musi być jednorodny w określonej dziedzinie

Oznacza to, że nie wolno do jednego zbioru wkładać psa, krzesła, samochodu, wąsów dziadka itp

Implikacja:
p=>q
Jeśli p to q
p – poprzednik
q - następnik

Równoważność
p<=>q
p wtedy i tylko wtedy gdy q

Definicja dziedziny:
Dziedzina to kompletny zbiór na którym operuje implikacja lub równoważność

W algebrze Kubusia musi być spełnione:
p+~p=1 – zbiór ~p jest dopełnieniem zbioru p do wspólnej dziedziny D
p*~p=0 – żaden element zbioru ~p nie należy do zbioru p
q+~q=1 – zbiór ~q jest dopełnieniem zbioru q do wspólnej dziedziny D
q*~q=0 - żaden element zbioru ~q nie należy do zbioru q

Przykład:
Jeśli zwierzę jest psem to na pewno => ma cztery łapy
P=>4L

Dziedzina po stronie p:
P + ~P=1
P*~P=0
P - zbiór wszystkich psów
~P - zbiór pozostałych zwierząt
Dziedzina: zbiór wszystkich zwierząt

Dziedzina po stronie q:
4L+~4L=1
4L*~4L=0
4L - zbiór zwierząt mających 4 łapy
~4L - zbiór zwierząt nie mających 4 łap
Dziedzina: zbiór wszystkich zwierząt

Doskonale widać, że wszystkie powyższe zbiory operują w tej samej dziedzinie.

Zbiór bieżący (aktualny):
Zbiór bieżący (aktualny) to zbiór na którym aktualnie pracujemy, zdefiniowany szczegółowo w poprzedniku zdania „Jeśli p to q”

Uwaga:
W zdaniach najczęściej wypowiadanych oba zbiory p i q należą do tej samej dziedziny jak to pokazano na przykładzie wyżej.

W ogólnym przypadku nie jest to wymagane, prawdziwe są takie implikacje:
Jeśli zwierzę jest psem to na pewno => nie jest kotem
P=>~K=1
Jeśli zwierzę jest psem to na pewno => nie jest samochodem
P=>~S=1
Oczywiście takich zdań ludzie normalni nie wymawiają, chyba że w czasie nauki języka 2-latka, albo w dowcipach.

Operacje na zbiorach dla potrzeb algebry Kubusia:

1.
Zbiory tożsame = identyczne

TR = zbiór trójkątów równobocznych
KR = zbiór trójkątów o równych kątach
Oczywiście zachodzi tożsamość:
Zbiór trójkątów równobocznych = Zbiór trójkątów o równych kątach
Zbiór TR = Zbiór KR

~TR = zbiór trójkątów nierównobocznych
~KR = zbiór trójkątów nie mających kątów równych
Oczywiście zachodzi tożsamość:
Zbiór trójkątów nierównobocznych = Zbiór trójkątów o nie równych kątach
Zbiór ~TR = Zbiór ~KR

2.
Iloczyn zbiorów = wspólna cześć zbiorów bez powtórzeń (operacja AND)
Y=A*B
A=[1,2], B=[1,2,3,4]
Y=A*B=[1,2]

3.
Suma logiczna zbiorów = wszystkie elementy zbiorów bez powtórzeń (operacja OR)
Y=A+B
A=[1,2], B=[1,2,3,4]
Y=A+B = [1,2,3,4]

4.
Różnica zbiorów A-B = elementy zbioru A pomniejszone o cześć wspólna zbiorów A i B
Y=A-B
A=[1,2,3,4], B=[1,2]
Y=A-B = [3,4]
Y=B-A = 0 – zbiór pusty !

5.
Zbiór pusty
= brak wspólnej części zbiorów w operacji AND, albo różnica zbiorów pusta jak wyżej
Y=A*B=0
A=[1,2], B=[3,4]
Y=A*B =0 – brak części wspólnej, zbiór pusty !

Przykład:
Dane są trzy zbiory:
A=[1,2,3,4]
B=[3,4,5,6]
C=[5,6,7,8]
Iloczyn logiczny:
A*B*C = 0 bo: A*C=0
Suma logiczna:
A+B+C = [1,2,3,4,5,6,7,8]
Różnica zbiorów:
A-B = [1,2]
A-C = [1,2,,3,4]


5.2 Operatory OR i AND w zbiorach

Cała filozofia operatorów OR i AND to zaledwie dwa spójniki logiczne z naturalnego języka mówionego „i”(*) oraz „lub”(+) plus prawo przejścia do logiki przeciwnej.

Zmienna binarna:
Zmienna binarna to zmienna mogąca przyjmować w osi czasu wyłącznie dwie wartości 1 albo 0

Przykłady zmiennych binarnych:
p, q, A, B, 4L, PIES, …

Funkcja logiczna:
Funkcja logiczna to funkcja n-zmiennych binarnych połączonych spójnikami „i”(*) oraz „lub”(+).
Y=p*q + p*~q + ~p*q - funkcja logiczna wielu zmiennych
Y=~p - funkcja logiczna jednej zmiennej

Zwyczajowo funkcję logiczną oznaczamy literą Y, ale nie ma tu żadnego dogmatu.

Definicja spójnika „i” (*):
Iloczyn logiczny (spójnik „i”) n-zmiennych binarnych jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1
Y=p*q
gdzie:
* - spójnik „i” (nie operator AND! )
Co matematycznie oznacza:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy zajdzie p (p=1) i zajdzie q (q=1)
Y=1 <=> p=1 i q=1

Definicja spójnika „lub” (+):
Suma logiczna n-zmiennych binarnych jest równa 1 wtedy i tylko wtedy gdy którakolwiek zmienna jest równa 1.
Y=p+q
gdzie:
+ - spójnik „lub” (nie operator OR!)
Matematycznie oznacza to:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy zajdzie p (p=1) lub zajdzie q (q=1)
Y=1 <=> p=1 lub q=1
gdzie:
p, q – binarne zmienne wejściowe
Y – funkcja logiczna, wyjście cyfrowe

Wystarczy że dowolna ze zmiennych p lub q przybierze wartość 1 i już funkcja Y=1, stan pozostałych zmiennych jest nieistotny.

Prawo przejścia do logiki przeciwnej:
Negujemy zmienne i wymieniamy spójniki na przeciwne

Przykład:
Dana jest funkcja logiczna
Y=p+q
Y=1 <=> p=1 lub q=1
Przejście do logiki przeciwnej:
~Y=~p*~q
~Y=1 <=> ~p=1 i ~q=1

Związek logiki dodatniej i ujemnej:
Y=~(~Y) - prawo podwójnego przeczenia
Podstawiając A i B mamy prawo de’Morgana:
p+q = ~(~p*~q)

Definicja logiki dodatniej i ujemnej w operatorach OR i AND:
Funkcja logiczna Y zapisana jest w logice dodatniej gdy brak przeczenia (Y), w logice ujemnej gdy jest przeczenie (~Y).
gdzie:
Y=1 - dotrzymam słowa, prawdą jest (=1) że wstąpi prawda (Y)
~Y=1 - skłamię, prawdą jest (=1), że skłamię (~Y)
Zauważmy że tu nie może być 0 bo mielibyśmy:
~Y=0 - fałszem jest (=0), że wystąpi fałsz (~Y), czyli wystąpi prawda


5.3 Definicja spójnika „i”(*) w zbiorach



Definicja spójnika „i”(*) w zbiorach w logice dodatniej (bo Y):
Y=p*q
Y=1 <=> p=1 i q=1
Co matematycznie oznacza:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy zajdzie p (p=1) i zajdzie q (q=1)
Koniec !
O niczym innym zdanie A nie mówi.

Symboliczna definicja spójnika „i”:
Kod:

Dotrzymam słowa Y
p*q =Y



5.4 Definicja spójnika „lub”(+) w zbiorach



Na podstawie powyższego diagramu mamy dwie równoważne definicje spójnika “lub”(+) w logice dodatniej (bo Y).
A.
Y=p+q
B
Y= p*q + p*~q + ~p*q
Oczywiście:
Y=Y
stąd definicja równoważna spójnika „lub”(+)
C.
Y=p+q = p*q + p*~q + ~p*q

Doskonale widać poprawność powyższej tożsamości w zbiorach.
Oczywiście wszystkie te zbiory realnie istnieją czyli ich wartość logiczna wynosi 1=prawda.

Stąd matematycznie powyższe równanie możemy rozpisać jako:
A.
Y=1 <=> p=1 lub q=1
B.
Y=1 <=> (p=1 i q=1) lub (p=1 i ~q=1) lub (~p=1 i q=1)

Na mocy definicji spójnika „lub” możemy symbolicznie zapisać:
Y=p+q = p*q + p*~q + ~p*q
Co matematycznie oznacza:
p*q=Y - dotrzymam słowa (Y=1) jeśli zajdzie p=1 i q=1
lub
p*~q=Y - dotrzymam słowa (Y=1) jeśli zajdzie p=1 i ~q=1
lub
~p*q=Y - dotrzymam słowa (Y=1) jeśli zajdzie ~p=1 i q=1

Stąd definicja symboliczna spójnika „lub”:
Kod:

Definicja symboliczna spójnika „lub”
Y – dotrzymam słowa
Y=p+q =p*q + p*~q + ~p*q
 p* q =Y
 p*~q =Y
~p* q =Y



5.5 Definicja operatora OR w zbiorach

Operator OR to złożenie spójnika „lub”(+) w logice dodatniej (bo Y) ze spójnikiem „i”(*) w logice ujemnej (bo ~Y).



Definicja spójnika „lub”(+) w zbiorach w logice dodatniej (bo Y):
A.
Y=p+q
Y=1 <=> p=1 lub q=1
Definicja równoważna na podstawie powyższego diagramu:
A1.
Y=p*q + p*~q + ~p*q
Y=1 <=> (p=1 i q=1) lub (p=1 i ~q=1) lub (~p=1 i q=1)
stąd:
Y=p+q = p*q + p*~q + ~p*q



Definicja spójnika “I”(*) w zbiorach w logice ujemnej (bo ~Y)
B.
~Y=~p*~q

Zauważmy, że oba diagramy razem opisują zdanie Y=p+q w kompletnej dziedzinie.

Symboliczna definicja operatora OR:
Kod:

A.
Y=p+q
Y - dotrzymam słowa, logika dodatnia bo Y
Y=p*q+p*~q+~p*q
 p* q=Y
 p*~q=Y
~p* q=Y
.. a kiedy skłamię ?
Przejście ze zdaniem A do logiki ujemnej
B.
~Y=~p*~q
~Y - skłamię, logika ujemna bo ~Y
~p*~q=~Y

Związek logiki dodatniej i ujemnej:
Y = ~(~Y)
Podstawiając A i B mamy prawo de’Morgana:
p+q = ~(~p*~q)

Symboliczną definicje operatora OR możemy zakodować zero-jedynkowo z dwóch różnych punktów odniesienia.
Dla punktu odniesienia A (Y=p+q) otrzymamy zero-jedynkową definicję operatora OR, natomiast dla punktu odniesienia B (~Y=~p*~q) otrzymamy zero-jedynkową definicję operatora AND
Kod:

A.
Y=p+q
Y - dotrzymam słowa
Y=p*q+p*~q+~p*q      /p q Y=p+q   /~p ~q ~Y=~p*~q
 p* q=Y              /1 1  =1     / 0  0   =0
 p*~q=Y              /1 0  =1     / 0  1   =0
~p* q=Y              /0 1  =1     / 1  0   =0
.. a kiedy skłamię ?
B.
~Y - skłamię
~p*~q=~Y             /0 0  =0     / 1  1   =1
Punkt odniesienia:
                     p=1, ~p=0     ~p=1, p=0
                     q=1, ~q=0     ~q=1, q=0
                     Y=1, ~Y=0     ~Y=1, Y=0


Aksjomatyczna, zero-jedynkowa definicja operatora OR:
Kod:

 p  q Y=p+q ~p ~q ~Y=~(p+q)=~p*~q Y=~(~p*~q)
 1  1  =1    0  0   =0             =1
 1  0  =1    0  1   =0             =1
 0  1  =1    1  0   =0             =1
 0  0  =0    1  1   =1             =0
 

W tabeli widać formalny dowód prawa de’Morgana (bo wynikowe kolumny identyczne):
p+q = ~(~p*~q)

W operatorach OR i AND interesuje nas kiedy:
Y=1 - dotrzymam słowa
~Y=1 - skłamię
Tylko i wyłącznie te linie kodujemy symbolicznie zgodnie z punktem odniesienia widocznym w nagłówku.
Kod:

 p  q Y=p+q ~p ~q  ~Y=~(p+q)=~p*~q
 p  q  =Y    0  0   = 0
 p ~q  =Y    0  1   = 0
~p  q  =Y    1  0   = 0
 0  0  =0   ~p ~q   =~Y
Punkt odniesienia:
p=1, ~p=0   ~p=1, p=0
q=1, ~q=0   ~q=1, q=0
Y=1, ~Y=0   ~Y=1, Y=0

Z powyższej tabeli doskonale widać definicje spójnika „lub”(+):
Y = p+q = p*q+p*~q+~p*q
Wszystkie zmienne mamy sprowadzone do jedynek zatem:
Y=1 <=> (p=1 lub q=1) = (p=1 i q=1) lub (p=1 i ~q=1) lub (~p=1 i q=1)
Oraz definicję spójnika „i”(*) w logice ujemnej:
~Y=~p*~q
Wszystkie zmienne mamy sprowadzone do jedynek zatem:
~Y=1 <=> ~p=1 i ~q=1

Jak widzimy w tabelach zero-jedynkowych operatorów logicznych mamy dokładnie to samo co w teorii zbiorów. Doskonale widać że w równaniach algebry Boole’a mamy do czynienia ze spójnikami logicznymi „lub”(+) oraz „i”(*), a nie z operatorami.

Wniosek:
Algebra Kubusia (Boole’a!) = teoria zbiorów

Przykład:
Jutro pójdę do kina lub do teatru
Y=K+T
Y=1 <=> K=1 lub T=1
Y – dotrzymam słowa, logika dodatnia bo Y
… a kiedy skłamię?
Przejście do logiki przeciwnej poprzez negacje zmiennych i wymianę operatorów:
~Y=~K*~T – logika ujemna bo ~Y
czyli:
Skłamię (~Y) jeśli jutro nie pójdę do kina (~K) i nie pójdę do teatru (~T)
~Y=~K*~T
~Y=1 <=> ~K=1 i ~T=1


5.6 Definicja operatora AND w zbiorach

Operator AND to złożenie spójnika „i”(*) w logice dodatniej (bo Y) ze spójnikiem „lub”(+) w logice ujemnej (bo ~Y).



Definicja spójnika „i”(*) w zbiorach w logice dodatniej (bo Y):
A.
Y=p*q
Y=1 <=> p=1 i q=1



Definicja spójnika „lub”(+) w logice ujemnej (bo ~Y):
B.
~Y=~p+~q
~Y=1 <=> ~p=1 lub ~q=1
Definicja równoważna na podstawie powyższego diagramu:
B1.
~Y=~p*~q + ~p*q + p*~q
~Y=1 <=> (~p=1 i ~q=1) lub (~p=1 i q=1) lub (p=1 i ~q=1)
stąd:
~Y=~p+~q =~p*~q + ~p*q + p*~q

Zauważmy, że oba diagramy razem opisują zdanie Y=p*q w kompletnej dziedzinie.

Symboliczna definicja operatora AND:
Kod:

A.
Y=p*q
Y – dotrzymam słowa, logika dodatnia bo Y
 p* q= Y
… a kiedy skłamię ?
Przejście ze zdaniem A do logiki ujemnej
B.
~Y=~p+~q
~Y – skłamię, logika ujemna bo ~Y
~Y=~p*~q + ~p*q + p*~q
~p*~q=~Y
~p* q=~Y
 p*~q=~Y

Związek logiki dodatniej i ujemnej:
Y = ~(~Y)
Podstawiając A i B mamy prawo de’Morgana:
p*q = ~(~p+~q)

Symboliczną definicje operatora AND możemy zakodować zero-jedynkowo z dwóch różnych punktów odniesienia.
Dla punktu odniesienia A (Y=p*q) otrzymamy zero-jedynkową definicję operatora AND, natomiast dla punktu odniesienia B (~Y=~p+~q) otrzymamy zero-jedynkową definicję operatora OR
Kod:

A.
Y=p*q                 /p q Y=p*q    /~p ~q ~Y=~p+~q
Y – dotrzymam słowa
 p* q= Y              /1 1  =1      / 0  0   =0
… a kiedy skłamię ?
B.
~Y=~p+~q
~Y – skłamię
~Y=~p*~q + ~p*q + p*~q
~p*~q=~Y              /0 0  =0      / 1  1   =1
~p* q=~Y              /0 1  =0      / 1  0   =1
 p*~q=~Y              /1 0  =0      / 0  1   =1
Punkt odniesienia:
                      p=1, ~p=0      ~p=1, p=0
                      q=1, ~q=0      ~q=1, q=0
                      Y=1, ~Y=0      ~Y=1, Y=0


Aksjomatyczna, zero-jedynkowa definicja operatora AND:
Kod:

 p  q Y=p*q ~p ~q ~Y=~(p*q)=~p+~q Y=~(~p+~q)
 1  1  =1    0  0   =0             =1
 1  0  =0    0  1   =1             =0
 0  1  =0    1  0   =1             =0
 0  0  =0    1  1   =1             =0
 

W tabeli widać formalny dowód prawa de’Morgana (bo wynikowe kolumny identyczne):
p*q = ~(~p+~q)

W operatorach OR i AND interesuje nas kiedy:
Y=1 - dotrzymam słowa
~Y=1 - skłamię
Tylko i wyłącznie te linie kodujemy symbolicznie zgodnie z punktem odniesienia widocznym w nagłówku.
Kod:

p  q Y=p*q ~p ~q ~Y=~(p*q)=~p+~q
p  q  =1    0  0   = 0
1  0  =0    p ~q   =~Y
0  1  =0   ~p  q   =~Y
0  0  =0   ~p ~q   =~Y
Punkt odniesienia:
p=1, ~p=0   ~p=1, p=0
q=1, ~q=0   ~q=1, q=0
Y=1, ~Y=0   ~Y=1, Y=0

Z powyższej tabeli doskonale widać definicje spójnika „i”(*):
Y=p*q
Wszystkie zmienne mamy sprowadzone do jedynek zatem:
Y=1 <=> p=1 i q=1
Oraz definicję spójnika „lub”(+) w logice ujemnej:
~Y = ~p+~q = ~p*~q+~p*q+p*~q
Wszystkie zmienne mamy sprowadzone do jedynek zatem:
~Y=1 <=> (~p=1 lub ~q=1) = (~p=1 i ~q=1) lub (~p=1 i q=1) lub (p=1 i ~q=1)

Jak widzimy w tabelach zero-jedynkowych operatorów logicznych mamy dokładnie to samo co w teorii zbiorów. Doskonale widać że w równaniach algebry Boole’a mamy do czynienia ze spójnikami logicznymi „i”(*) oraz „lub”(+), a nie z operatorami.

Wniosek:
Algebra Kubusia (Boole’a!) = teoria zbiorów

Przykład:
Jutro pójdę do kina i do teatru
Y=K*T
Y=1 <=> K=1 i T=1
Y – dotrzymam słowa, logika dodatnia bo Y
… a kiedy skłamię?
Przejście do logiki przeciwnej poprzez negacje zmiennych i wymianę operatorów:
~Y=~K+~T – logika ujemna bo ~Y
czyli:
Skłamię (~Y) jeśli jutro nie pójdę do kina (~K) lub nie pójdę do teatru (~T)
~Y=~K+~T
~Y=1 <=> ~K=1 lub ~T=1


5.7 Matematyczne związki między OR i AND

Matematyczne tożsamości w operatorach OR i AND to prawa de’Morgana:
Y = p+q = ~(~p*~q) - I prawo de’Morgana
Y = p*q = ~(~p+~q) - II prawo de’Morgana

Prawa de’Morgana zapisane w postaci równań algebry Kubusia:

I prawo de’Morgana
Y=p+q - dotrzymam słowa (Y)
~Y=~p*~q - skłamię (~Y)
Związek logiki dodatniej i ujemnej:
Y=~(~Y)
stąd prawo de’Morgana:
Y = p+q = ~(~p*~q)

II prawo de’Morgana
Y=p*q - dotrzymam słowa (Y)
~Y=~p+~q - skłamię (~Y)
Związek logiki dodatniej i ujemnej:
Y=~(~Y)
stąd prawo de’Morgana:
Y = p*q = ~(~p+~q)

Matematyczna nierówność między operatorami OR i AND.

Na mocy definicji zachodzi:
Y=p+q = ~(~p*~q) # Y=p*q = ~(~p+~q)
gdzie:
# - różne na mocy definicji
Powyższa nierówność oznacza:
Jeśli dla pewnych parametrów p i q jedna strona nierówności jest prawdą to druga strona nierówności dla tych samych parametrów p i q musi być fałszem, i odwrotnie.

Przykład:
A: Jutro pójdę do kina lub do teatru # B: Jutro pójdę do kina i do teatru
A: Y=K+T # B: Y=K*T

Jeśli wypowiemy zdanie A, to zdanie B będzie fałszem w stosunku do zdania A
A: Y=K+T=1 # B: Y=K*T=0
Jeśli wypowiemy zdanie B, to zdanie A będzie fałszem w stosunku do zdania B
A: Y=K+T=0 # B: Y=K*T=1

Jak widzimy, nie da się dwóch zdań A i B wymówić jednocześnie. Każde ze zdań może być zarówno prawdziwe albo fałszywe w zależności od punktu odniesienia, czyli zdania rzeczywiście wypowiedzianego.

Na mocy definicji zachodzi:
A: Y=p+q=1 ## B: Y=p*q=1
gdzie:
## - rożne na mocy definicji
czyli:
Istnieje możliwość, że dowolne ze zdań A lub B może być prawdziwe dla tych samych wartości parametrów p i q.


6.0 Operatory implikacji i równoważności w zbiorach

Definicje zero-jedynkowe:
Kod:

p  q p=>q p~>q ~p ~q ~p=>~q ~p~>~q  p<=>q=(p=>q)*(~p=>~q)
1  1  =1   =1   0  0   =1     =1     =1
1  0  =0   =1   0  1   =1     =0     =0
0  0  =1   =1   1  1   =1     =1     =1
0  1  =1   =0   1  0   =0     =1     =0

Doskonale widać zachodzące prawa Kubusia:
p=>q = ~p~>~q
p~>q = ~p=>~q
Widzimy także operator równoważności:
p<=>q = (p=>q)*(~p=>~q)

Cała filozofia operatorów implikacji prostej, implikacji odwrotnej i równoważności to zaledwie dwa spójniki logiczne:
=> - warunek wystarczający, spójnik „musi” między p i q w całym obszarze logiki
~> - warunek konieczny, spójnik „może” miedzy p i q w implikacji (nie w równoważności! )

Definicja logiki dodatniej i ujemnej w operatorach implikacji i równoważności:
Zdanie wypowiedziane jest w logice dodatniej gdy q jest niezanegowane (q), w logice ujemnej gdy q jest zanegowane (~q)


6.1 Zdanie zawsze prawdziwe

Definicja:
Zdanie zawsze prawdziwe to zdanie warunkowe „Jeśli p to q” pozostające prawdziwe przy wszelkich możliwych przeczeniach p i q



Definicja naturalnego spójnika „może” ~~>:
p~~>q
Jeśli zajdzie p to może ~~> zajść q
gdzie:
~~> - naturalny spójnik „może”, wystarczy znaleźć jeden przypadek prawdziwy, jedną część wspólną zbiorów p i q.

Definicja symboliczna zdania zawsze prawdziwego.
Kod:

A: p~~>q  =1    /1 1 =1
B: p~~>~q =1    /1 0 =1
C: ~p~~>~q=1    /0 0 =1
D: ~p~~>q =1    /0 1 =1

Definicje zero-jedynkową (patrz komentarz /) zdania zawsze prawdziwego otrzymujemy kodując zgodnie dla punktu odniesienia A (zdanie wypowiedziane):
p~~>q
p=1, ~p=0
q=1, ~q=0
Zauważmy, że w przypadku zdania zawsze prawdziwego nie a znaczenia które zdanie przyjmiemy za punkt odniesienia.
gdzie:
~~> - naturalny spójnik „może”, wystarczy pokazać jeden przypadek prawdziwy

W powyższym diagramie istnieją części wspólne wszystkich możliwych kombinacji p i q, stąd z punktu odniesienia zbiorów mamy same jedynki.
Dla punktu odniesienia p~~>q mamy tabelę zero-jedynkową operatora zdania zawsze prawdziwego. W całej logice istnieje jeden i tylko jeden operator zdania zawsze prawdziwego jak wyżej, gdzie w wyniku mamy same jedynki. Jak coś jest zawsze prawdziwe to mamy zero jakiejkolwiek logiki. W matematyce zdania typu P8~>P3 są bezwartościowymi śmieciami, bo nie ma tu żadnej gwarancji.
Wszelkie inne operatory zero-jedynkowe, a jest ich 16, mają w wyniku przynajmniej jedno zero, zatem jakiekolwiek sformułowanie „zdanie zawsze prawdziwe” w stosunku do tych operatorów jest błędem czysto matematycznym.

Przykład:
A.
Jeśli liczba jest podzielna przez 8 to może być podzielna przez 3
P8~~>P3=1 bo 24
Zbiory:
P8*P3=1 – istnieje wspólna cześć zbiorów P8 i P3
P8=[8,16, 24…]
P3=[3,6,18,24…]
P8*P3=1 bo 24
B.
Jeśli liczba jest podzielna przez 8 to może nie być podzielna przez 3
P8~~>~P3=1 bo 8
Zbiory:
P8=[8,16, 24…]
~P3=[1,8…]
P8*~P3=1 bo 8
C,
Jeśli liczba nie jest podzielna przez 8 to może nie być podzielna przez 3
~P8~~>~P3=1 bo 5
Zbiory:
~P8={3,5…]
~P3=[1,5…]
~P8*~P3=1 bo 5
D.
Jeśli liczba nie jest podzielna przez 8 to może być podzielna przez 3
~P8~~>P3=1 bo 3
Zbiory:
~P8=[3,5…]
P3=[3,6..]
~P8*P3=1 bo 3

Doskonale widać tabelę zero-jedynkową operatora „może” dla kodowania zgodnego ze zdaniem wypowiedzianym A:
P8=1, ~P8=1
P3=1, ~P3=0
Kod:

A: P8~~>P3=1 bo 24  /1 1 =1
B: P8~~>~P3=1 bo 8  /1 0 =1
C: ~P8~~>~P3=1 bo 5 /0 0 =1
D: ~P8~~>P3=1 bo 3  /0 1 =1


Twierdzenie Sowy:
W świecie zdeterminowanym (gdy znamy rozwiązanie) zdanie prawdziwe wchodzące w skład dowolnego operatora ulega redukcji do spójnika „i”(*),

Przykład:
Wylosowana liczba: 5
Jeśli wylosowano liczbę 5 (L5=1) to nie jest ona podzielna przez 8 (~P8=1) i nie jest podzielna przez 3 (~P3=1)
L5=>~P8*~P3
Co matematycznie oznacza:
L5=1 => ~P8=1 i ~P3=1
Wylosowano liczbę: 3
Jeśli wylosowano liczbę 3 (L3=1) to nie jest ona podzielna przez 8 (~P8=1) i jest podzielna przez 3 (P3=1)
L3=>~P8*P3
co matematycznie oznacza:
L3=1 => ~P8=1 i P3=1


6.2 Definicja operatora implikacji prostej

Definicja operatora implikacji prostej:
Implikacja prosta to złożenie warunku wystarczającego => w logice dodatniej (bo q) z warunkiem koniecznym ~> w logice ujemnej (bo ~q)

Definicja implikacji prostej w równaniu algebry Boole’a:
p=>q = ~p~>~q – prawo Kubusia
gdzie:
=> - warunek wystarczający, spójnik „musi” między p i q
~> - warunek konieczny, spójnik „może” miedzy p i q

Definicja warunku wystarczającego w logice dodatniej (bo q)
p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika, że zbiór p musi zawierać się w całości w zbiorze q
Z czego wynika, że p musi być wystarczające dla q, jak zajdzie p to q też musi !

Stąd mamy definicję warunku wystarczającego w zbiorach:



Z wykresu odczytujemy definicję symboliczną warunku wystarczającego w logice dodatniej (bo q):
A.
Jeśli zajdzie p to na pewno => zajdzie q
p=>q=1 - twarda prawda, gwarancja matematyczna
Zbiory:
p*q=1 - zbiór p zawiera się w całości w zbiorze q
stąd:
B.
Jeśli zajdzie p to na pewno => nie zajdzie q
p=>~q=0 - twardy fałsz, wynikły tylko i wyłącznie ze zdania A
Zbiory:
p*~q=0
Zbiory p i ~q są rozłączne, stąd wynik iloczynu logicznego jest równy 0, co doskonale widać na diagramie.

Definicja symboliczna warunku wystarczającego w logice dodatniej (bo q):
Kod:

p=> q=1
p*q  =1 - istnieje cześć wspólna zbiorów p i q
p=>~q=0
p*~q =0 - zbiory p i ~q są rozłączne, wynik: 0=zbiór pusty

p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika że zbiór p musi zawierać się w całości w zbiorze q
Z czego wynika że p jest wystarczające dla q
Warunek wystarczający => w logice dodatniej (bo q) zachodzi wtedy i tylko wtedy gdy iloczyn logiczny zbiorów p*q jest zbiorem niepustym oraz iloczyn logiczny zbiorów p*~q jest zbiorem pustym.

… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q = ~p~>~q

Zobaczmy ten przypadek na diagramie.



Z wykresu odczytujemy definicję warunku koniecznego ~> w logice ujemnej (bo ~q)
C.
Jeśli zajdzie ~p to może ~> nie zajść q
~p~>~q=1 - miękka prawda, może zajść ale nie musi bo zdanie D
Zbiory:
~p*~q=1 - istnieje cześć wspólna
lub
D.
Jeśli zajdzie ~p to może ~~> zajść q
~p~~>q=1 - miękka prawda, może zajść ale nie musi bo zdanie C
Zbiory:
~p*q=1 - istnieje część wspólna
W zdaniu D nie zachodzi warunek konieczny ~> bo prawo Kubusia nie może być zgwałcone:
D: ~p~>q = B: p=>~q
Zdanie B jest fałszywe zatem w zdaniu D nie może zachodzić warunek konieczny ~>.
Zdanie D jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy pokazać jeden przypadek prawdziwy.

Symboliczna definicja implikacji prostej:
Kod:

Warunek wystarczający w logice dodatniej (bo q)
A: p=>q=1       /Twarda prawda, gwarancja matematyczna
B: p=>~q=0      /Twardy fałsz, wynikły tylko i wyłącznie z A
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q = ~p~>~q
Warunek konieczny w logice ujemnej (bo ~q)
C: ~p~>~q=1     /miękka prawda, może zajść ale nie musi
D: ~p~~>q=1     /miękka prawda, może zajść ale nie musi

p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika że druga linia musi być twardym fałszem
Z czego wynika że p musi być wystarczające dla q
Gdzie:
=> - warunek wystarczający, spójnik „na pewno” w całym obszarze logiki
~> - warunek konieczny, w implikacji spójnik „może” (nie w równoważności!)
~~> - naturalny spójnik „może”, wystarczy pokazać jeden przypadek prawdziwy

Definicja warunku koniecznego wynika z prawa Kubusia:
~p~>~q = p=>q
Warunek konieczny ~> miedzy p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.
Z definicji tej wynika, że całą logikę matematyczną możemy sprowadzić do badania łatwych w dowodzeniu warunków wystarczających =>.

Definicja operatora implikacji prostej:
p=>q = ~p~>~q – prawo Kubusia

Symboliczną definicję operatora implikacji prostej możemy zakodować z dwóch różnych punktów odniesienia co wynika z prawa Kubusia.
Kod:

                /p=>q               /~p~>~q
A: p=>q=1       /1 1 =1             / 0 0 =1
B: p=>~q=0      /1 0 =0             / 0 1 =0
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q = ~p~>~q
C: ~p~>~q=1     /0 0 =1             / 1 1 =1
D: ~p~~>q=1     /0 1 =1             / 1 0 =1
Punkt odniesienia:
                 p=>q                ~p~>~q
                 p=1, ~p=0           ~p=1, p=0
                 q=1, ~q=0           ~q=1, q=0

Jak widzimy dla kodowania zgodnego z punktem odniesienia p=>q otrzymujemy zero-jedynkową definicje operatora implikacji prostej natomiast dla kodowania zgodnego z punktem odniesienia ~p~>~q otrzymujemy definicję zero-jedynkowa operatora implikacji odwrotnej.

Wnioski:
1.
Mózg człowieka operuje wyłącznie na zbiorach, poszukując części wspólnej zbiorów, wtedy i tylko wtedy zdanie jest prawdziwe.
2.
Matematycznie, z punktu widzenia świata zewnętrznego widzimy zero-jedynkową definicje operatora implikacji prostej albo implikacji odwrotnej w zależności od przyjętego punktu odniesienia.
3.
Sposób kodowania zero-jedynkowego nie wpływa na treść samych zdań, stąd oba kodowania zero-jedynkowe są równoważne.

Przykład:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1 bo 8,16… - twarda prawda, gwarancja matematyczna, zachodzi zawsze bez wyjątków
Zbiory:
P8=[8,16…]
P2=[2,4,8,16..]
P8*P2=1 bo 8,16…
1*1=1
B.
Jeśli liczba jest podzielna przez 8 to na pewno => nie jest podzielna przez 2
P8=>~P2=0 – twardy fałsz wynikły tylko i wyłącznie ze zdania A
Zbiory:
P8=[8,16..]
~P2=[1,3,5…]
P8*~P2=0 – zbiory P8 i ~P2 istnieją (=1), ale są rozłączne, stąd 0 w wyniku
… a jeśli liczba nie jest podzielna przez 8 ?
Prawo Kubusia:
P8=>P2 = ~P8~>~P2
C.
Jeśli liczba nie jest podzielna przez 8 to może ~> nie być podzielna przez 2
~P8~>~P2=1 bo 3,5.. – miękka prawda, może zajść ale nie musi bo D
Zbiory:
~P8=[2,3,5…]
~P2=[3,5,7…]
~P8*~P2=1 bo 3,5…
LUB
D.
Jeśli liczba nie jest podzielna przez 8 to może ~~> być podzielna przez 2
~P8~~>P2=1 bo 2,4… - miękka prawda, może zajść ale nie musi bo C
Zbiory:
~P8=[2,4,5…]
P2=[2,4,6…]
~P8*P2=1 bo 2,4…
W zdaniu D nie zachodzi warunek konieczny bo prawo Kubusia:
D: ~P8~>P2 = B: P8=>~P2=0 bo 8
Prawa strona jest fałszem zatem w zdaniu D nie ma prawa zachodzić warunek konieczny. Zdanie D jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy pokazać jeden przypadek prawdziwy.

Doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym A:
P8=1, ~P8=0
P2=1, ~P2=0
Kod:

A: P8=>P2=1 bo 8   /1 1 =1
B: P8=>~P2=0       /1 0 =0
C: ~P8~>~P2=1 bo 3 /0 0 =1
D: ~P8~~>P2=1 bo 2 /0 1 =1


Twierdzenie Sowy:
W świecie zdeterminowanym (gdy znamy rozwiązanie) zdanie prawdziwe wchodzące w skład dowolnego operatora ulega redukcji do spójnika „i”(*),

Przykład:
Wylosowana liczba: 3
Jeśli wylosowano liczbę 3 (L3=1) to nie jest ona podzielna przez 8 (~P8=1) i nie jest podzielna przez 2 (~P2=1)
L3=>~P8*~P2
Co matematycznie oznacza:
L3=1 => ~P8=1 i ~P2=1
Wylosowano liczbę: 2
Jeśli wylosowano liczbę 2 (L2=1) to nie jest ona podzielna przez 8 (~P8=1) i jest podzielna przez 2 (P2=1)
L2=>~P8*P2
co matematycznie oznacza:
L2=1 => ~P8=1 i P2=1

Operator implikacji prostej w tabeli zero-jedynkowej:
Kod:

p   q p=>q  ~p  ~q ~p~>~q
1   1  =1    0   0   =1
1   0  =0    0   1   =0
0   0  =1    1   1   =1
0   1  =1    1   0   =1

Doskonale widać zachodzące prawo Kubusia (tożsamość kolumn):
p=>q = ~p~>~q
W implikacji interesuje nas co się stanie jeśli zajdzie p (p=1) i co się stanie jeśli zajdzie ~p (~p=1) tylko i wyłącznie te linie kodujemy symbolicznie w odniesieniu do nagłówka tabeli.
Kod:

p   q p=>q  ~p  ~q ~p~>~q
p=> q  =1    0   0   =1
p=>~q  =0    0   1   =0
0   0  =1   ~p~>~q   =1
0   1  =1   ~p~~>q   =1
Punkt odniesienia:
p=1, ~p=0   ~p=1, p=0
q=1, ~q=1   ~q=1, q=0

Doskonale widać tabele symboliczną operatora implikacji prostej:
Kod:

Warunek wystarczający w logice dodatniej bo q
p=>q=1
p=>~q=0
.. a jeśli nie zajdzie p?
Prawo Kubusia:
p=>q = ~p~>~q
~p~>~q=1
~p~~>q=1


Jak widzimy zgodność tabel zero-jedynkowych z teorią zbiorów jest 100% zatem:
Algebra Kubusia (Boole’a!) = teoria zbiorów


6.3 Definicja operatora implikacji odwrotnej

Implikacja odwrotna to złożenie warunku koniecznego ~> w logice dodatniej (bo q) z warunkiem wystarczającym => w logice ujemnej (bo ~q)

Definicja implikacji odwrotnej w równaniu algebry Boole’a:
p~>q = ~p=>~q – prawo Kubusia
gdzie:
~> - warunek konieczny, spójnik „może” miedzy p i q
=> - warunek wystarczający, spójnik „musi” między p i q

Definicja warunku koniecznego wynika z prawa Kubusia:
p~>q= ~p=>~q
Warunek konieczny ~> między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.
Wynika z tego, że cała logikę matematyczną możemy sprowadzić do badania łatwych w dowodzeniu warunków wystarczających.

Warunek konieczny w diagramie logiki wygląda następująco:



p~>q

Z wykresu odczytujemy definicje symboliczną warunku koniecznego w logice dodatniej (bo q):
A.
Jeśli zajdzie p to może ~> zajść q
p~>q=1 - miękka prawda, może zajść ale nie musi, bo zdanie B
Zbiory:
p*q=1 - istnieje cześć wspólna zbiorów p i q
LUB
B.
Jeśli zajdzie p to może ~~> zajść ~q
p~~>~q=1 - miękka prawda, może zajść ale nie musi, bo zdanie A
Zbiory:
p*~q=1 - istnieje część wspólna zbiorów p i ~q

… a jeśli nie zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q

Zobaczmy to na diagramie logicznym:



~p=>~q

Z diagramu odczytujemy:
C.
Jeśli zajdzie ~p to na pewno => zajdzie ~q
~p=>~q=1 - twarda prawda, gwarancja matematyczna, zachodzi zawsze, bez wyjątków
Zbiory:
~p*~q=1 - istnieje cześć wspólna zbiorów ~p i ~q
stąd:
D.
Jeśli zajdzie ~p to na pewno => zajdzie q
~p=>q=0 - twardy fałsz, wynikły tylko i wyłącznie ze zdania C
Zbiory:
~p*q=0
Zbiory ~p i q istnieją, ale są rozłączne, stąd wynik iloczynu logicznego jest równy 0, co doskonale widać na diagramie.

Zauważmy, że w zdaniu B nie może zachodzić warunek konieczny bo prawo Kubusia:
B: p~>~q = D: ~p=>q=0
Zdanie D jest fałszywe, zatem w zdaniu B nie może zachodzić warunek konieczny ~>.
Zdanie B jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy pokazać jeden przypadek prawdziwy.

Definicja symboliczna warunku wystarczającego w logice ujemnej (bo q):
Kod:

~p=>~q=1
~p*~q =1 - istnieje część wspólna zbiorów ~p i ~q
~p=>q =0
~p*q  =0 - zbiory ~p i q są rozłączne, stąd wynik: 0=zbiór pusty

~p=>~q
Jeśli zajdzie ~p to na pewno => zajdzie ~q
Z czego wynika że zajście ~p wystarcza dla zajścia ~q
Warunek wystarczający => w logice ujemnej (bo ~q) zachodzi wtedy i tylko wtedy gdy iloczyn logiczny zbiorów ~p*~q jest zbiorem niepustym oraz iloczyn logiczny zbiorów ~p*q jest zbiorem pustym.

Symboliczna definicja implikacji odwrotnej:
Kod:

Warunek konieczny w logice dodatniej (bo q)
A: p~>q  =1   - miękka prawda, może zajść ale nie musi
B: p~~>~q=1   - miękka prawda, może zajść ale nie musi
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q
Warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1   - twarda prawda, gwarancja matematyczna
D: ~p=>q =0   - twardy fałsz, wynikły tylko i wyłącznie z C

p~>q
Jeśli zajdzie p to „może” ~> zajść q
bo druga linia p~~>~q też ma prawo wystąpić
Gdzie:
~> - warunek konieczny
=> - warunek wystarczający
~~> - naturalny spójnik „może”, wystarczy pokazać jeden przypadek prawdziwy

Definicja warunku koniecznego wynika z prawa Kubusia:
p~>q = ~p=>~q
Warunek konieczny ~> miedzy p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.
Z definicji tej wynika, że całą logikę matematyczną możemy sprowadzić do badania łatwych w dowodzeniu warunków wystarczających =>.

Definicja operatora implikacji odwrotnej:
p~>q = ~p=>~q - prawo Kubusia

Symboliczną definicję operatora implikacji odwrotnej możemy zakodować z dwóch różnych punktów odniesienia co wynika z prawa Kubusia.
Kod:

                /p~>q               /~p=>~q
A: p~>q  =1     /1 1 =1             / 0 0 =1
B: p~~>~q=1     /1 0 =1             / 0 1 =1
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q
C: ~p=>~q=1     /0 0 =1             / 1 1 =1
D: ~p=>q =0     /0 1 =0             / 1 0 =0
Punkt odniesienia:
                 p=>q                ~p~>~q
                 p=1, ~p=0           ~p=1, p=0
                 q=1, ~q=0           ~q=1, q=0

Jak widzimy dla kodowania zgodnego z punktem odniesienia p~>q otrzymujemy zero-jedynkową definicje operatora implikacji odwrotnej natomiast dla kodowania zgodnego z punktem odniesienia ~p=>~q otrzymujemy definicję zero-jedynkowa operatora implikacji prostej.

Wnioski:
1.
Mózg człowieka operuje wyłącznie na zbiorach, poszukując części wspólnej zbiorów, wtedy i tylko wtedy zdanie jest prawdziwe.
2.
Matematycznie, z punktu widzenia świata zewnętrznego widzimy zero-jedynkową definicje operatora implikacji odwrotnej albo implikacji prostej w zależności od przyjętego punktu odniesienia.
3.
Sposób kodowania zero-jedynkowego nie wpływa na treść samych zdań, stąd oba kodowania zero-jedynkowe są równoważne.

Przykład:
A.
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8=1 bo 8,16… - miękka prawda, może zajść ale nie musi bo zdanie B
Zbiory:
P2=[2,4,8,16..]
P8=[8,16…]
P2*P8=1 bo 8,16…
LUB
B.
Jeśli liczba jest podzielna przez 2 to może ~~> nie być podzielna przez 8
P2~~>~P8=1 bo 2,4… - miękka prawda, może zajść ale nie musi bo zdanie A
Zbiory:
P2=[2,4,6…]
~P8=[2,4,5…]
P2*~P8=1 bo 2,4…
… a jeśli liczba nie jest podzielna przez 2 ?
Prawo Kubusia:
P2~>P8 = ~P2=>~P8
C.
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8=1 bo 3,5… - twarda prawda, gwarancja matematyczna
Zbiory:
~P2=[3,5,7…]
~P8=[2,3,5…]
~P2*~P8=1 bo 3,5…
stad:
D.
Jeśli liczba nie jest podzielna przez 2 to na pewno => jest podzielna przez 8
~P2=>P8=0 – twardy fałsz wynikły tylko i wyłącznie ze zdania C
Zbiory:
~P2=[1,3,5…]
P8=[8,16..]
~P2*P8=0 - zbiory rozłączne, wynik =0

W zdaniu B nie zachodzi warunek konieczny bo prawo Kubusia:
B: ~P2~>P8 = D: P2=>~P8=0 bo 8
Prawa strona jest fałszem zatem w zdaniu B nie ma prawa zachodzić warunek konieczny. Zdanie B jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy pokazać jeden przypadek prawdziwy.

Doskonale widać tabelę zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym A:
P2=1, ~P2=0
P8=1, ~P8=0
Kod:

A: P2~>P8=1 bo 8   /1 1 =1
B: P2~~>~P8=1 bo 2 /1 0 =1
C: ~P2=>~P8=1 bo 3 /0 0 =1
D: ~P2=>P8=0       /0 1 =0

Twierdzenie Sowy:
W świecie zdeterminowanym (gdy znamy rozwiązanie) zdanie prawdziwe wchodzące w skład dowolnego operatora ulega redukcji do spójnika „i”(*),

Przykład:
Wylosowana liczba: 2
Jeśli wylosowano liczbę 2 (L2=1) to jest ona podzielna przez 2 (P2=1) i nie jest podzielna przez 8 (~P8=1)
L2=>P2*~P8
Co matematycznie oznacza:
L2=1 => P2=1 i ~P8=1
Wylosowano liczbę: 3
Jeśli wylosowano liczbę 3 (L3=1) to nie jest ona podzielna przez 2 (~P2=1) i nie jest podzielna przez 8 (~P8=1)
L3=>~P2*~P8
co matematycznie oznacza:
L3=1 => ~P2=1 i ~P8=1

Operator implikacji odwrotnej w tabeli zero-jedynkowej:
Kod:

p    q p~>q  ~p  ~q ~p=>~q
1    1  =1    0   0   =1
1    0  =1    0   1   =1
0    0  =1    1   1   =1
0    1  =0    1   0   =0

Doskonale widać zachodzące prawo Kubusia (tożsamość kolumn):
p~>q = ~p=>~q
W implikacji interesuje nas co się stanie jeśli zajdzie p (p=1) i co się stanie jeśli zajdzie ~p (~p=1) tylko i wyłącznie te linie kodujemy symbolicznie w odniesieniu do nagłówka tabeli.
Kod:

p    q p~>q  ~p  ~q ~p=>~q
p~>  q  =1    0   0   =1
p~~>~q  =1    0   1   =1
0    0  =1   ~p=>~q   =1
0    1  =0   ~p=> q   =0
Punkt odniesienia:
p=1, ~p=0   ~p=1, p=0
q=1, ~q=1   ~q=1, q=0

Doskonale widać tabele symboliczną operatora implikacji odwrotnej:
Kod:

Warunek konieczny w logice dodatniej bo q
p~>q  =1
p~~>~q=1
.. a jeśli nie zajdzie p?
Prawo Kubusia:
p~>q = ~p=>~q
~p=>~q=1
~p=> q=0


Jak widzimy zgodność tabel zero-jedynkowych z teorią zbiorów jest 100% zatem:
Algebra Kubusia (Boole’a!) = teoria zbiorów


6.4 Równoważność w zbiorach

Zero-jedynkowa definicja równoważności:
Kod:

p q p<=>q
1 1  =1
1 0  =0
0 0  =1
0 1  =0


Definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)

Równoważność to jednoczesne zachodzenie warunku wystarczającego w logice dodatniej (bo q) i warunku wystarczającego w logice ujemnej (bo ~q)

Zobaczmy to na diagramach logiki:



Warunek wystarczający w logice dodatniej:
Kod:

p=>q =1
p*q  =1 - istnieje część wspólna zbiorów p i q
p=>~q=0
p*~q =0 - zbiory p i ~q są rozłączne, wynik:0=zbiór pusty

p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika że p jest warunkiem wystarczającym dla q
Z czego wynika, że zbiór p musi zawierać się w całości w zbiorze q

Z diagram widzimy, że zbiory p i q są dokładnie tymi samymi zbiorami:
p=q
co wymusza tożsamość zbiorów:
~p=~q



Warunek wystarczający w logice ujemnej:
Kod:

~p=>~q=1
~p*~q =1 - istnieje cześć wspólna zbiorów ~p i ~q
~p=>q =0
~p*q  =0 - zbiory ~p i q są rozłączne, wynik: 0-zbiór pusty

~p=>~q
Jeśli zajdzie ~p to musi zajść ~q
Z czego wynika że ~p jest wystarczające dla ~q
Z czego wynika że zbiór ~p musi zawierać się w całości w zbiorze ~q

Z diagramu widzimy, że zbiory ~p i ~q są dokładnie tymi samymi zbiorami:
~p=~q
co wymusza tożsamość zbiorów:
p=q

Z powyższego mamy operatorową definicję równoważności.
p<=>q = (p=>q)*(~p=>~q)

Analiza ogólna równoważności
p<=>q = (p=>q)*(~p=>~q)
Warunek wystarczający w logice dodatniej (bo q)
p=>q - pierwszy człon po prawej stronie
A.
Jeśli zajdzie p to na pewno => zajdzie q
p=>q=1 - twarda prawda, gwarancja matematyczna
Zbiory:
p*q=1 - zbiory p i q są tymi samymi zbiorami
B.
Jeśli zajdzie p to na pewno => nie zajdzie q
p=>~q=0 - twardy fałsz, wynikły tylko i wyłącznie z A
Zbiory:
p*~q=0 - zbiory rozłączne

… a jeśli nie zajdzie p ?
~p<=>~q = (~p=>~q)*(p=>q)
Warunek wystarczający w logice ujemnej bo ~q
~p=>~q – pierwszy człon po prawej stronie
C.
Jeśli nie zajdzie p to na pewno => nie zajdzie q
~p=>~q=1 - twarda prawda, gwarancja matematyczna
Zbiory:
~p*~q=1 - zbiory ~p i ~q są tymi samymi zbiorami
D.
Jeśli nie zajdzie p to na pewno => zajdzie q
~p=>q=0 - twardy fałsz, wynikły tylko i wyłącznie z C
Zbiory:
~p*q=0 - zbiory rozłączne

Symboliczna definicja równoważności:
Kod:

p<=>q = (p=>q)*(~p=>~q)
Warunek wystarczający w logice dodatniej (bo q):
p=>q
A: p=>q  =1 - twarda prawda, [b]gwarancja matematyczna[/b]
B: p=>~q =0 - twardy fałsz wynikły z A
… a jeśli zajdzie ~p ?
~p<=>~q = (~p=>~q)*(p=>q)
Warunek wystarczający w logice ujemnej (bo ~q):
~p=>~q
C: ~p=>~q=1 - twarda prawda, [b]gwarancja matematyczna[/b]
D: ~p=>q =0 - twardy fałsz wynikły z C


Symboliczną definicję operatora równoważności możemy zakodować z dwóch różnych punktów odniesienia co wynika z prawa algebry Kubusia (i Boole’a):
p<=>q = ~p<=>~q
Kod:

                /p<=>q              /~p<=>~q
p<=>q=(p=>q)*(~p=>~q)
p=>q – warunek wystarczający w logice dodatniej bo q
A: p=>q  =1     /1 1 =1             / 0 0 =1
B: p=>~q =0     /1 0 =0             / 0 1 =0
… a jeśli zajdzie ~p ?
~p<=>~q=(~p=>~q)*(p=>q)
~p=>~q – warunek wystarczający w logice ujemnej bo ~q
C: ~p=>~q=1     /0 0 =1             / 1 1 =1
D: ~p=>q =0     /0 1 =0             / 1 0 =0
Punkt odniesienia:
                 p<=>q               ~p<=>~q
                 p=1, ~p=0           ~p=1, p=0
                 q=1, ~q=0           ~q=1, q=0

Jak widzimy dla kodowania zgodnego z punktem odniesienia p<=>q otrzymujemy zero-jedynkową definicje operatora równoważności.
Identyczną tabele równoważności otrzymujemy dla kodowania zgodnego z punktem odniesienia ~p<=>~q co jest dowodem iż:
p<=>q = ~p<=>~q

Wnioski:
1.
Mózg człowieka operuje wyłącznie na zbiorach, poszukując części wspólnej zbiorów, wtedy i tylko wtedy zdanie jest prawdziwe.
2.
Matematycznie, z punktu widzenia świata zewnętrznego zawsze widzimy zero-jedynkową definicje operatora równoważności, niezależnie który z możliwych punktów odniesienia przyjmiemy, p<=>q czy też ~p<=>~q
3.
Sposób kodowania zero-jedynkowego nie wpływa na treść samych zdań, stąd oba kodowania zero-jedynkowe są równoważne.
4.
Zauważmy, że analiza zdania p=>q oraz ~p=>~q przez wszystkie możliwe przeczenia p i q również daje zero-jedynkową definicję równoważności.
W przypadku równoważności udowodnionej możemy zatem powiedzieć iż są to:
Warunki wystarczające (precyzyjnie)
Równoważności, mniej precyzyjnie ale również dobrze
5.
W równoważności (i tylko tu) zachodzi prawo kontrapozycji:
~p=>~q = q=>p
Stąd równoważna definicja równoważności:
p<=>q = (p=>q)*(q=>p)

Twierdzenie Rexerexa:
Jeśli równoważność jest udowodniona to zachodzi wszystko co tylko możliwe:
p=>q = p<=>q = p<=>~q = (p=>q)*(~p=>~q) = (p=>q)*(q=>p) ..

Warunek udowodnionej równoważności jest tu oczywistością bowiem zdania p=>q są identyczne w równoważności i implikacji prostej.
Definicja implikacji prostej:
p=>q = ~p~>~q

Jak widzimy definicja równoważności w zbiorach jest w 100% zgodna z aksjomatyczną, zero-jedynkową definicją równoważności, zatem:
Algebra Kubusia (Boole’a!) = algebra zbiorów

Przykład:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR=>~KR)

Dowód poprzez analizę przez wszystkie możliwe przeczenia TR i KR.
TR<=>KR = (TR=>KR)*(~TR=>~KR)
TR=>KR - warunek wystarczający w logice dodatniej (bo KR)
A.
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1 - twarda prawda, gwarancja matematyczna
B.
Jeśli trójkąt jest równoboczny to na pewno => nie ma kątów równych
TR=>~KR=0 - twardy fałsz wynikły wyłącznie z A
… a jeśli trójkąt nie jest równoboczny ?
~TR<=>~KR = (~TR=>~KR)*(TR=>KR)
~TR=>~KR - warunek wystarczający w logice ujemnej (bo ~KR)
C.
Jeśli trójkąt nie jest równoboczny to na pewno =. nie ma kątów równych
~TR=>~KR=1 - twarda prawda, gwarancja matematyczna
D.
Jeśli trójkąt nie jest równoboczny to na pewno =>ma kąty równe
~TR=>KR=0 - twardy fałsz wynikły wyłącznie z C

Tabela symboliczna równoważności:
Kod:

TR<=>KR=(TR=>KR)*(~TR=>~KR)
TR=>KR - warunek wystarczający w logice dodatniej (bo KR)
A: TR=>KR =1
B: TR=>~KR=0
~TR<=>~KR=(~TR=>~KR)*(TR=>KR)
~TR=>~KR – warunek wystarczający w logice ujemnej (bo ~KR)
C: ~TR=>~KR=1
D: ~TR=>KR =0



6.5 Gimnazjalne definicje implikacji i równoważności

Gimnazjalna definicja implikacji:
Implikacja to zachodzenie warunku wystarczającego wyłącznie w jedną stronę
p=>q=1
q=>p=0

Gimnazjalna definicja równoważności
Implikacja to zachodzenie warunku wystarczającego w dwie strony
p=>q=1
q=>p=1

Powyższe definicje wykorzystują banalny fakt braku przemienności argumentów w implikacji oraz przemienność argumentów w równoważności

Formalny dowód braku przemienności argumentów w implikacji prostej:
Kod:

p q p=>q q=>p
1 1  =1   =1
1 0  =0   =1
0 0  =1   =1
0 1  =1   =0

Brak tożsamości w dwóch ostatnich kolumnach jest dowodem braku przemienności argumentów w implikacji prostej.
p=>q # q=>p
Jeśli dowolna strona jest prawdą to druga strona musi być fałszem
Przykład:
P8=>P2=1 # P2=>P8=0 bo 2

Formalny dowód braku przemienności argumentów w implikacji odwrotnej:
Kod:

p q p~>q q~>p
1 1  =1   =1
1 0  =1   =0
0 0  =1   =1
0 1  =0   =1

Brak tożsamości w dwóch ostatnich kolumnach jest dowodem braku przemienności argumentów w implikacji odwrotnej.
p~>q # q~>p
Jeśli dowolna strona jest prawdą to druga strona musi być fałszem

Przykład:
P2~>P8=1 # P8~>P2=0
Dowód prawdziwości lewej strony znaku #:
P2~>P8 = ~P2=>~P8=1 – prawo Kubusia
Prawa strona jest prawdą zatem w zdaniu P2~>P8 zachodzi warunek konieczny
cnd

Dowód fałszywości prawej strony znaku #:
P8~>P2 = ~P8=>~P2=0 bo 2
Prawa strona jest fałszem, zatem nie zachodzi warunek konieczny w zdaniu:
P8~>P2=0
cnd

Z powyższego mamy gimnazjalną definicję implikacji
Implikacja to wynikanie wyłącznie w jedną stronę
p=>q # q=>p
Jeśli stwierdzimy pewne wynikanie => wyłącznie w jedna stronę to mamy dowód iż zdanie jest implikacją prostą.

Formalny dowód przemienności argumentów w równoważności:
Kod:

p q p<=>q q<=>p
1 1   =1    =1
1 0   =0    =0
0 0   =1    =1
0 1   =0    =0

W równoważności jest wszystko jedno co nazwiemy p a co q, bowiem zachodzi tu przemienność argumentów.
Definicja równoważności:
p<=>q = (p=>q)*(q=>p) =1*1=1
Fakt ten można wykorzystać do odróżnienia równoważności od implikacji prostej, gdzie przemienność argumentów nie występuje.
Implikacja:
p=>q=1
q=>p=0
Równoważność:
p=>q=1
q=>p=1


6.6 Implikacje nietypowe

Dotychczas rozważaliśmy implikacje i równoważności w których p i q należały do tej samej dziedziny oraz zbiory p i q nie były zbiorami rozłącznymi.

Uwaga!
W praktyce naturalnego języka mówionego praktycznie wszystkie zdania spełniają powyższy warunek.

Nikt normalny nie sypie zdaniami prawdziwymi będącymi zaprzeczeniem fałszu:
Pies to nie kura
Pies to nie samochód
itp.

Definicja zdania prawdziwego w algebrze Kubusia:
1 - zdanie prawdziwe, zbiór niepusty
0 - zdanie fałszywe, zbiór pusty

Przykład zdań fałszywych.
Pies to kura
Zbiór psów będących kurami jest zbiorem pustym
Słoń ma trzy nogi
Zbiór słoni z trzema nogami jest zbiorem pustym


Rodzaje implikacji nietypowych:

Implikacje nietypowe w których p i q należy do tej samej dziedziny to:
1.
p i q są zbiorami rozłącznymi, gdzie oba zbiory są niepuste
Przykład:
Jeśli zwierze jest psem to na pewno nie ma dwóch nóg
P=>~2N=1
p - zbiór psów istnieje
q - zbiór zwierząt z dwoma nogami też istnieje (kura)
Zbiory p i q są oczywiście rozłączne
2.
p i q są zbiorami rozłącznymi, gdzie q jest zbiorem pustym
Przykład:
Jeśli zwierze jest psem to na pewno nie ma miliona nóg
P=>~MN=1
p - zbiór psów istnieje
q - zbiór zwierząt które mają milion nóg jest zbiorem pustym

Implikacje nietypowe w których p i q należy do różnych dziedzin
Oczywiście z takiego założenia wynika że zbiory p i q są rozłączne.
1.
p i q istnieje i p i q to zbiory niepuste
Jeśli zwierze jest psem to na pewno nie jest samochodem
P=>~S=1
W skrócie:
Pies to nie samochód
Zdania typu:
Pies to nie ocean, to nie wąsy dziadka, to nie krzesło
Są prawdziwe ale ze zrozumiałych względów nie będziemy się nad nimi rozczulać.

Twierdzenie:
Wartość prawd powstałych w wyniku negacji fałszu jest równa zeru absolutnemu i każdy człowiek, od 5-cio latka po profesora wysyła je w kosmos.

Zajmiemy się tu wyłącznie nietypowymi implikacjami gdzie p i q należy do tej samej dziedziny.
Zobaczmy to na diagramie.



p=>~q=1
p=>q=0



~p~>q=1
~p~~>~q=1

Na mocy powyższego diagramu, ogólna analiza tego typu implikacji jest następująca.
A.
Jeśli zajdzie p to na pewno => zajdzie ~q
p=>~q=1
p*~q=1 - istnieje część wspólna zbiorów p i ~q
Zbiór p zawiera się w całości w zbiorze ~q
B.
Jeśli zajdzie p to na pewno => zajdzie q
p=>q=0
p*q=0 - zbiory p i q są rozłączne, stąd wynik: 0=zbiór pusty
Zdania A i B spełniają definicje warunku wystarczającego.

… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>~q = ~p~>q
C.
Jeśli zajdzie ~p to może ~> zajść q
~p~>q=1
~p*q=1
Zbiory ~p i q istnieją i są niepuste, oraz mają część wspólną, stąd w wyniku mamy jeden (prawda)
LUB
D.
Jeśli zajdzie ~p to może ~~> zajść ~q
~p~~>~q=1
To samo w zbiorach:
~p*~q=1
Zbiory ~p i ~q istnieją i są niepuste, oraz mają część wspólną, stąd w wyniku mamy jeden (prawda).

Uwagi:
1.
Doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym p=>~q czyli:
p=1, ~p=0
~q=1, q=1
Kod:

p=>~q =1     /1 1 =1
p=>q  =0     /1 0 =0
… a jeśli zajdzie ~p?
Prawo Kubusia:
p=>q = ~p~>~q
~p~>~q=1     /0 0 =1
~p~~>q=1     /0 1 =1


2.
Nie ma tu szans na równoważność bowiem zbiory p i q są rozłączne, natomiast w równoważności zbiory p i q musza być dokładnie tymi samymi zbiorami.
3.
W szczególnym przypadku, gdy zbiór q jest zbiorem pustym, zdanie wypowiedziane A będzie spełniać wyłącznie definicję warunku wystarczającego.

Analiza ogólna zdania A dla przypadku, gdy zbiór q jest zbiorem pustym.
Oczywiście iloczyn logiczny zbioru pustego i dowolnego innego zbioru jest zbiorem pustym.

Założenie:
q=0 - zbiór pusty o wartości logicznej zero (fałsz)

Dla tego przypadku będziemy mieli:
A.
Jeśli zajdzie p to na pewno => zajdzie ~q
p=>~q=1
p*~q=1 - istnieje cześć wspólna zbiorów p i ~q
Zbiór p zawiera się w całości w zbiorze ~q
B.
Jeśli zajdzie p to na pewno => zajdzie q
p=>q=0
p*q=0
Zbiór q=0 jest zbiorem pustym, stąd iloczyn logiczny jest równy zeru, niezależnie od wzajemnego położenia zbiorów p i q.
Zdania A i B spełniają definicje warunku wystarczającego.

… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>~q = ~p~>q
C.
Jeśli zajdzie ~p to może ~> zajść q
~p~>q=0
~p*q=0
Zero w wyniku wymusza zbiór pusty q=0 o wartości logicznej zero (fałsz)
LUB
D.
Jeśli zajdzie ~p to może ~~> zajść ~q
~p~~>~q=1
~p*~q=1 - istnieje cześć wspólna zbiorów ~p i ~q.

Doskonale widać, że zdanie A nie spełnia definicji zero-jedynkowej implikacji prostej dla kodowania zgodnego z tym zdaniem p=>~q czyli:
p=1, ~p=0
~q=1, q=0
Tabela zero-jedynkowa jaką tu otrzymujemy wygląda następująco:
Kod:

Założenie:
q=0 – zbiór pusty
A: p=>~q =1     /1 1 =1
   p*~q=1
B: p=>q  =0     /1 0 =0
   p*q=0
C: ~p~>q=0      /0 0 =0
   ~p*q=0 – bo q jest zbiorem pustym z założenia!
D: ~p~~>~q=1
   ~p*~q=1      /0 1 =1
 

Zdanie A jest warunkiem wystarczającym, ale nie spełnia definicji implikacji prostej z powodu linii C gdzie powinno być: 0 0 =1

Wnioski:
1.
Warunek wystarczający => może istnieć samodzielnie, przykład: zdanie A wyżej
2.
Warunek konieczny ~> nie może istnieć samodzielnie bowiem nie pozwala na to jego definicja.

Definicja warunku koniecznego:
p~>q = ~p=>~q - I prawo Kubusia
~p~>~q = p=>q - II prawo Kubusia
Warunek konieczny ~> miedzy p i q zachodzi wtedy i tylko wtedy, gdy z zanegowanego poprzednika wynika => zanegowany następnik.

Przykład zdania p=>~q gdzie q nie jest zbiorem pustym:
A.
Jeśli zwierze jest psem to na pewno => nie ma dwóch nóg
P=>~2N=1
P*~2N=1
Zbiór zwierząt będących psami (P) i zbiór zwierząt nie mających 2 nóg (~2N) jest zbiorem niepustym bo pies, stąd iloczyn logiczny jest równy 1 (prawda).
B.
Jeśli zwierze jest psem to na pewno => ma dwie nogi
P=>2N=0
P*2N=0
Zbiór psów (P) i zbiór zwierząt mających dwie nogi (2N) to zbiory rozłączne, zatem ich iloczyn logiczny jest równy zero (fałsz)
… a jeśli zwierze nie jest psem ?
Prawo Kubusia:
P=>~2N = ~P~>2N
C.
Jeśli zwierze nie jest psem to może > mieć dwie nogi
~P~>2N=1 bo kura
~P*2N=1
Istnieje zbiór zwierząt nie będących psami (~P) oraz zbiór zwierząt mających dwie nogi (2N).
Zbiory te maja część wspólną (kura), stad wynik iloczynu logicznego równy 1 (prawda)
LUB
D.
Jeśli zwierze nie jest psem to może ~~> nie mieć dwóch nóg
~P~~>~2N=1 bo słoń
~P*~2N=1
Istnieje zbiór zwierząt nie będących psami (~P) oraz zbiór zwierząt nie mających dwóch nóg (~2N).
Zbiory te maja część wspólną (słoń), stad wynik iloczynu logicznego równy 1 (prawda)

Doskonale widać zero-jedynkową definicję implikacji prostej dla kodowania zgodnego ze zdaniem P=>~2N czyli:
P=1, ~P=0
~2N=1, 2N=0

Przykład zdania p=>~q gdzie q jest zbiorem pustym:
A.
Jeśli zwierze jest psem to na pewno nie ma miliona nóg
P=>~MN=1
P*~MN=1
Zbiór psów i zbiór zwierząt nie mających miliona nóg jest zbiorem niepustym bo pies.
B.
Jeśli zwierze jest psem to na pewno ma milion nóg
P=>NM=0
P*MN=0
Tu możliwe są dwa dowody:
0 - bo zbiór zwierząt mających milion nóg jest zbiorem pustym czyli: MN=0
0 - bo zbiór psów i zbiór zwierząt mających milion nóg to zbiory rozłączne, iloczyn logiczny zbiorów rozłącznych jest równy 0
… a jeśli zwierze nie jest psem ?
Prawo Kubusia:
P=>~MN = ~P~>MN
C.
Jeśli zwierze nie jest psem to może mieć milion nóg
~P~>MN=0
To samo w zbiorach:
~P*MN=0
0 - bo zbiór zwierząt mających milion nóg jest zbiorem pustym czyli: MN=0
Iloczyn logiczny zbioru pustego i czegokolwiek jest zbiorem pustym.
LUB
D.
Jeśli zwierze nie jest psem to może nie mieć miliona nóg
~P~~>~MN=1
0 1 =1
To samo w zbiorach:
~P*~MN=1
Istnieje zbiór nie psów (~P) i zbiór zwierząt nie mających miliona nóg (~MN).
Zbiory te maja cześć wspólną (kura, słoń…), stad wynik iloczynu logicznego równy 1 (prawda).

Doskonale widać że zdanie A spełnia wyłącznie definicję warunku wystarczającego dla kodowania zgodnego ze zdaniem wypowiedzianym a:
P=1, ~P=1
~MN=1, MN=0
Kod:

A: P=>~MN=1   /1 1 =1
B: P=>MN =0   /1 0 =0
… a jeśli to nie pies?
Prawo Kubusia:
P=>~MN = ~P~>MN
C: ~P~>MN=0    /0 0 =0
D: ~P~~>~MN=1  /0 1 =1

Zdanie A spełnia definicję warunku wystarczającego (A i B), ale nie spełnia definicji implikacji prostej z powodu linii C gdzie powinna być sekwencja: 0 0 =1
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 35963
Przeczytał: 15 tematów

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Wto 16:31, 13 Gru 2011    Temat postu:

Część III
Algebra Kubusia w równaniach logicznych


7.0 Algebra Kubusia w równaniach logicznych

W naturalnym języku mówionym każdy człowiek posługuje się równaniami algebry Kubusia (algebry Boole’a), nigdy tabelami zero-jedynkowymi.

Twierdzenie:
Dowolną tabele zero-jedynkową można zapisać w postaci równoważnego równania algebry Kubusia i odwrotnie.

Równania algebry Kubusia można łatwo minimalizować. Szczególnie użyteczna jest tu technika przechodzenia do logiki ujemnej i z powrotem co za chwile zobaczymy.

Operatory implikacji i równoważności to operatory dwuargumentowe.
Równania algebry Kubusia z operatorami implikacji i równoważności są banalne.
Prawa Kubusia:
p=>q = ~p~>~q – definicja operatora implikacji prostej
p~>q = ~p=>~q – definicja operatora implikacji odwrotnej
Definicja równoważności:
p<=>q = (p=>q)*(~p=>~q) = (p=>q)*(q=>p)
gdzie:
=> - warunek wystarczający
~> - warunek konieczny

Definicja warunku wystarczającego w logice dodatniej (bo q):
Kod:

p=>q=1
p=>~q=0

p=>q
Jeśli zajdzie p to musi zajść q
Z czego wynika że druga linia musi być fałszem
Z czego wynika że p musi być wystarczające dla q
Przykład:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1
P8=>~P2=0 bo 2

Definicja warunku wystarczającego w logice ujemnej (bo ~q):
Kod:

~p=>~q=1
~p=>q=0

~p=>~q
Jeśli zajdzie ~p to musi zajść ~q
Z czego wynika że druga linia musi być fałszem
Z czego wynika że ~p musi być wystarczające dla ~q
Przykład:
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8=1
~P2=>P8=0 bo 8
gdzie:
=> - warunek wystarczający, spójnik „na pewno” miedzy p i q w całym naszym Wszechświecie, w tym w matematyce.

Definicja warunku koniecznego:
~p~>~q = p=>q – I prawo Kubusia, definicja implikacji prostej
p~>q = ~p=>~q – II prawo Kubusia, definicja implikacji odwrotnej
Warunek konieczny ~> miedzy p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.
gdzie:
~> - warunek konieczny, spójnik „może” miedzy p i q w implikacji (nie w równoważności!)

Z powyższego wynika, ze całą logikę w zakresie rozstrzygania o prawdziwości/ fałszywości implikacji i równoważności można sprowadzić do badania banalnych warunków wystarczających =>.

Zupełnie inną sytuację mamy w operatorach AND i OR, gdzie argumentów może być nieskończenie wiele. Fundament algebry Kubusia w operatorach OR i AND to zaledwie dwie definicje, definicja spójnika „i” oraz definicja spójnika „lub”.


7.1 Prawa wynikające z definicji operatora AND

Definicja zero-jedynkowa operatora AND:
Kod:

p q Y=p*q
1 1  =1
1 0  =0
0 1  =0
0 0  =0


Definicja iloczynu logicznego w logice dodatniej:
Iloczyn logiczny n-zmiennych binarnych jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Y=A*B
Y=1 <=> A=1 i B=1

Definicja równoważna w logice ujemnej:
Iloczyn logiczny jest równy zeru gdy którakolwiek zmienna jest równa zeru.
Y=A*B
Y=0 <=> A=0 lub B=0
Zauważmy, że mamy tu niezgodność z naturalną logiką człowieka. W zapisie matematycznym mamy spójnik „i”(*) a w rozwinięciu szczegółowym używamy spójnika „lub”(+) - dlatego to jest logika ujemna.

Prawa wynikające bezpośrednio z tej definicji:
1*0=0
1*1=1
A*0=0
A*1=A
A*A=A
A*~A=0
Odpowiedniki z języka mówionego:
Pies szczeka i miauczy
P=>S*M = S*0 =0
Pies szczeka i szczeka
P=>S*S = S*1= S
Pies szczeka i nie szczeka
P=>S*~S = 1*0=0

Przykłady z języka mówionego:
A.
Jutro pójdę do kina i pójdę do kina = jutro pójdę do kina
Y=K*K=K
B.
Jutro pójdę do kina i nie pójdę do kina
Y=K*~K=0 - sprzeczność, sytuacja niemożliwa, dlatego wartość logiczna zdania to fałsz (0).

W naturalnym języku mówionym zdania A i B to bełkot, dlatego nikt tak nie mówi.


7.2 Prawa wynikające z definicji operatora OR

Definicja zero-jedynkowa operatora OR:
Kod:

p q Y=p+q
1 1  =1
1 0  =1
0 1  =1
0 0  =0


Definicja sumy logicznej w logice dodatniej:
Suma logiczna n-zmiennych binarnych jest równa jeden gdy którakolwiek zmienna jest równa 1
Y=A+B
Y=1 <=> A=1 lub B=1

Definicja równoważna w logice ujemnej:
Suma logiczna n-zminnych binarnych jest równa zeru wtedy i tylko wtedy gdy wszystkie zmienne są równe zeru.
Y=A+B
Y=0 <=> A=0 i B=0
Zauważmy, że mamy tu niezgodność z naturalną logiką człowieka. W zapisie matematycznym mamy spójnik „lub”(+) a w rozwinięciu szczegółowym używamy spójnika „i”(*) - dlatego to jest logika ujemna.

Prawa wynikające bezpośrednio z tej definicji:
1+0=1
0+0=0
A+1=1
A+0=A
A+A=A
A+~A=1
Odpowiedniki z języka mówionego, wątpliwej jakości
Pies szczeka lub miauczy
P=>S+M = S+0 = S+0 =S
Pies miauczy lub miauczy
P=>M+M = 0+0=0
Pies szczeka lub szczeka
P=>S+S = 1+1=1
Pies szczeka lub nie szczeka
P=>S+~S=1+0=1

Przykłady z języka mówionego:
C.
Jutro pójdę do kina lub pójdę do kina = jutro pójdę do kina
Y=K+K = K
D.
Jutro pójdę do kina lub nie pójdę do kina
Y=K+~K=1
Twarda prawda, bowiem jutro musi wystąpić K lub ~K, nie ma innej możliwości matematycznej.
Nikt tak nie mówi, bowiem mamy tu zero sensu, czyli nic nie zależy od decyzji człowieka, cokolwiek zrobi, nie skłamie. W technice cyfrowej takie połączenie sygnałów to również bezsens, zero logiki.

Czasami mówimy:
Jutro pójdę do kina albo nie pójdę do kina
Y=K+~K
Wyrażając tym samym swoje niezdecydowanie, dając do zrozumienia odbiorcy, że rozważmy pójście do kina ale nie jesteśmy tego pewni.
Zdania równoważne:
Zastanawiam się czy jutro pójść do kina
Możliwe że jutro pójdę do kina
itp


7.3 Najważniejsze prawa algebry Kubusia

W języku mówionym prawa łączności i przemienności to oczywistość, natomiast absorpcja, rozdzielność i pochłanianie są przydatne jedynie w technice cyfrowej.

Kolejność wykonywania działań:
nawiasy, AND, OR

Łączność:
A+(B+C) = (A+B)+C
A*(B*C)=(A*B)*C

Przemienność:
A+B=B+C
A*B=B*C

Absorpcja:
A+(A*B)=A
A*(A+B)=A

Rozdzielność:
A+(B*C) = (A+B)*(A+C)
A*(B+C)=(A*B)+(A*C)

Pochłanianie, to fundament algebry Kubusia (i algebry Boole’a):
1.
A*~A=0 - iloczyn logiczny zbioru A i jego dopełnienia ~A jest zbiorem pustym (=0).
Żaden element zbioru A nie ma prawa należeć do zbioru ~A (zbiory rozłączne)
2.
A+~A=1 - suma logiczna zbioru A i zbioru ~A jest zbiorem pełnym (=1)
Zbiór ~A jest dopełnieniem zbioru A do dziedziny (zbioru pełnego)

Zbiór pełny = dziedzina na której operuje zdanie lub cześć zdania


7.4 Metody upraszczania równań algebry Kubusia

Podstawowe metody pokażemy na przykładzie praw logicznych przedstawionych w poprzednim punkcie.

Definicja bramki logicznej
Bramka logiczna to układ fizyczny o n wejściach (A,B,C…) i tylko jednym wyjściu (Y) realizujący ściśle określoną funkcje logiczną

Bramka logiczna = funkcja logiczna

Przykład funkcji logicznej:
Y=A+B(C+~D)
Zarówno wejścia logiczne (A,B,C,D…) jak i wyjście logiczne to zmienne binarne mogące przyjmować w osi czasu wyłącznie dwie wartości, zero albo 1.

Definicja logiki dodatniej i ujemnej w operatorach OR i AND
Y - funkcja logiczna w logice dodatniej (brak przeczenia)
~Y - funkcja logiczna w logice ujemnej (jest przeczenie)

Prawo przejścia do logiki przeciwnej:
Negujemy zmienne i wymieniamy spójniki logiczne na przeciwne

Kolejność wykonywania działań:
nawiasy, spójnik „i”(*), spójnik „lub”(+)

Metoda Wuja Zbója:
Dana jest funkcja logiczna
Y=A+B(~C+D)
Krok 1:
Uzupełniamy nawiasy i spójniki:
Y = A+[B*(~C+D)] – logika dodatnia bo Y
Krok 2:
Negujemy zmienne i wymieniamy operatory na przeciwne
~Y = ~A*[~B+(C*~D)] – logika ujemna bo ~Y
Zauważmy, że w logice ujemnej zmienia się kolejność wykonywania działań, stąd konieczność uzupełniania nawiasów w kroku 1

Absorbcja:
A+(A*B)=A
1.
Dowód metodą bramek logicznych (funkcji logicznej Y):
Y=A+(A*B)
Jeśli A=1 to Y=A+(A*B)=1+(A*B)=1+x=1
Jeśli A=0 to Y=A+(A*B)=0+(0*B)=0+0=0
niezależnie od wartości B
stąd:
Y=A+(A*B)=A
CND
2.
Ten sam dowód metodą rachunku zero-jedynkowego:
Kod:

A B A*B A+A*B
1 1 =1   =1
1 0 =0   =1
0 1 =0   =0
0 0 =0   =0

Tożsamość kolumn pierwszej i ostatniej jest dowodem zachodzenia prawa absorpcji:
A+A*B = A

Zauważmy, że przy wypełnianiu tabeli zero-jedynkowej korzystamy wyłącznie z dwóch definicji.

Definicja iloczynu logicznego w logice dodatniej
Iloczyn logiczny (spójnik „i”(*) ) n-zmiennych binarnych jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Y=A*B
Y=1 <=> A=1 i B=1

Definicja sumy logicznej w logice dodatniej:
Suma logiczna (spójnik „lub”(+) ) n-zmiennych binarnych jest równa jeden gdy którakolwiek zmienna jest równa 1
Y=A+B
Y=1 <=> A=1 lub B=1

Koniec !
Absolutnie nic więcej nie jest nam potrzebne do poprawnego wypełnienia tabeli zero-jedynkowej dowolnej funkcji logicznej.

Absorpcja:
A*(A+B)=A
1.
Dowód metoda bramek logicznych (funkcji logicznej Y):
Y=A*(A+B)
Jeśli A=1 to Y=A*(A+B)= 1*(1+B)=1*1=1
Jeśli A=0 to Y=A*(A+B)=0*(A+B)=0
niezależnie od wartości B.
stąd:
Y=A*(A+B)=A
CND
2.
Ten sam dowód metodą rachunku zero-jedynkowego:
Kod:

A B A+B A*(A+B)
1 1 =1   =1
1 0 =1   =1
0 1 =1   =0
0 0 =0   =0

Tożsamość kolumn pierwszej i ostatniej jest dowodem zachodzenia prawa absorpcji:
A*(A+B) = A

Rozdzielność:
A+(B*C) = (A+B)*(A+C)

Uwaga:
Zasady mnożenia wielomianów w algebrze Kubusia są identyczne jak w matematyce klasycznej, mnożymy każdy element z każdym.
1.
Dowód metodą mnożenia wielomianów plus prawo absorpcji:
Y=(A+B)*(A+C) = A*A+A*C+B*A+B*C
A*A=A
stąd:
Y== (A+A*C)+A*B+B*C
A+A*C=A – absorpcja
stąd:
Y=A+A*B+B*C
A+A*B=A – absorpcja
stąd:
Y=A+B*C = A+(B*C)
CND

2.
Ten sam dowód metodą bramek logicznych:
Y=(A+B)*(A+C)
Jeśli A=0 to Y=B*C
Jeśli A=1 to Y=(1+B)*(1+C) = 1*1=1
stąd:
Y=A+B*C = A+(B*C)
Suma logiczna jest tu wymuszona przez przypadek:
Jeśli A=1 to Y=1
CND

Rozdzielność:
A*(B+C)=(A*B)+(A*C)

1.
To jest najzwyklejsze mnożenie zmiennej przez wielomian znane z matematyki klasycznej
cnd

2.
Dowód przez przejście do logiki ujemnej plus redukcja przy pomocy prawa absorpcji:
Y=(A*B)+(A*C)
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów:
~Y=(~A+~B)*(~A+~C) = ~A*~A+~A*~C+~B*~A+~B*~C
~A*~A=~A
stad:
~Y=~A+~A*~C+~B*~A+~B*~C
~A+~A*~C=~A – absorpcja
stąd:
~Y=~A+~A*~B + ~B*~C
~A+~A*~B=~A – absorpcja
stąd:
~Y = ~A + ~B*~C
Przejście do logiki dodatniej poprzez negacje zmiennych i wymianę operatorów:
Y=A(B+C)
cnd

3.
Dowód metodą bramek logicznych:
Y=(A*B)+(A*C)
Jeśli A=0 to Y=(0*B)+(0*C) = 0+0=0
jeśli A=1 to Y=(1*B)+(1*C) = B+C
stąd:
Y=A*(B+C)
Iloczyn logiczny jest tu wymuszony przez przypadek:
Jeśli A=0 to Y=0
CND

4.
Dowód metodą rachunku zero-jedynkowego:
Kod:

A B C B+C A(B+C) A*B A*C (A*B)+(A*C)
1 1 1  1   1      1   1    1
1 1 0  1   1      1   0    1
1 0 1  1   1      0   1    1
1 0 0  0   0      0   0    0
0 1 1  1   0      0   0    0
0 1 0  1   0      0   0    0
0 0 1  1   0      0   0    0
0 0 0  0   0      0   0    0

Tożsamość kolumn 5 i ostatniej jest dowodem zachodzenia prawa rozdzielności:
A(B+C) = (A*B)+(A*C)


7.5 Tworzenie równań algebry Kubusia z tabel zero-jedynkowych

Dowolną tabelę zero-jedynkową możemy opisać jednoznacznie równaniem algebry Kubusia i odwrotnie, czyli na podstawie dowolnego równania algebry Kubusia możemy wygenerować jednoznaczną tabelę zero- jedynkową.

W tym przypadku:
Równania algebry Kubusia = Równania algebry Boole’a

Twierdzenie Prosiaczka mówi o sposobie przejścia z tabeli zero-jedynkowej n-elementowej do równania algebry Boole’a opisującego tą tabelę.

Definicja zero-jedynkowa operatora OR:
Kod:

p q  Y=p+q
1 1 =1
1 0 =1
0 1 =1
0 0 =0


Kubuś, nauczyciel logiki w I klasie LO w stumilowym lesie:
Kto potrafi z powyższej tabeli zero-jedynkowej wygenerować równanie algebry Boole’a ?

Wszystkie ręce w górze, do tablicy podchodzi Jaś:
W ostatniej linii w wyniku mamy samotne zero, zatem dla tej linii możemy zapisać najprostsze równanie.

Z tabeli widzimy że:
A.
Y=0 <=> p=0 i q=0
Przejście z takiego zapisu do równań algebry Boole’a jest banalne. Należy skorzystać z definicji iloczynu logicznego sprowadzając wszystkie zmienne do jedynki albo z definicji sumy logicznej sprowadzając wszystkie zmienne do zera.

Sposób I.
Sprowadzam wszystkie zmienne do jedynki dzięki czemu w równaniu algebry Kubusia możemy się pozbyć bezwzględnych zer i jedynek:
B.
Prawo algebry Kubusia (Boole’a):
Jeśli Y=0 to ~Y=1
Twierdzenie odwrotne również zachodzi:
Jeśli ~Y=1 to Y=0
Definicja równoważności:
p<=>q = (p=>q)*(q=>p)
stąd możemy używać symbolu równoważności:
Y=0 <=> ~Y=1
… ale nie musimy, bowiem interesuje nas wynikanie wyłącznie w jedną stronę!
Jeśli Y=0 to ~Y=1
Jeśli p=0 to ~p=1
Jeśli q=0 to ~q=1

Definicja iloczynu logicznego (logika dodatnia):
Iloczyn logiczny (spójnik „i”) n-zmiennych binarnych jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Y=p*q
Y=1 <=> p=1 i q=1

Korzystając z A i B na podstawie tej definicji mamy:
~Y=1 <=> ~p=1 i ~q=1
mając sprowadzone wszystkie zmienne do tej samej wartości logicznej, opuszczamy bezwzględne jedynki.
stąd:
~Y = ~p*~q
Przechodzimy do logiki przeciwnej metodą przedszkolaka negując wszystkie zmienne i wymieniając spójniki na przeciwne.
Y = p+q

Sposób II
Sprowadzamy wszystkie zmienne do zera i stosujemy definicję sumy logicznej.

Definicja sumy logicznej (logika ujemna):
Suma logiczna (spójnik „lub”) n-zmiennych binartnych jest równa zeru wtedy i tylko wtedy gdy wszystkie składniki sumy są równe zeru
Y=p+q
Y=0 <=>p=0 i q=0
Zauważmy, że mamy tu niezgodność zapisu z naturalną logiką człowieka.
W równaniu algebry Kubusia mamy spójnik „lub”(+):
Y=p+q
natomiast w szczegółowej rozpisce mamy spójnik „i”(*):
Y=0 <=>p=0 i q=0
dlatego to jest logika ujemna!

W równaniu A wszystkie zmienne są równe zeru, zatem tu nic nie musimy robić, od razu mamy równanie algebry Kubusia dla powyższej tabeli zero-jedynkowej.
A.
Y=0 <=> P=0 i q=0
stąd:
Y=p+q

Kubuś:
Jasiu, zapisałeś równanie algebry Kubusia wyłącznie dla ostatniej linii, skąd wiesz jakie będą wartości logiczne w pozostałych liniach, nie opisanych tym równaniem ?

Twierdzenie Prosiaczka:
Równania algebry Kubusia dla dowolnej tabeli zero-jedynkowej n-elementowej tworzymy na podstawie linii z tą samą wartością logiczną w wyniku. Wszelkie nie opisane równaniem linie przyjmą wartości przeciwne do linii opisanych. Dla dowolnej tabeli zero-jedynkowej możliwe jest wygenerowanie ośmiu równań algebry Kubusia.

Powyżej ułożyliśmy równanie wyłącznie dla ostatniej linii tabeli gdzie w wyniku było zero, wszelkie pozostałe linie, zgodnie z twierdzeniem Prosiaczka muszą być jedynkami niezależnie od chciejstwa człowieka … bo to jest matematyka przecież.

Kubuś:
Z tego co mówisz wynika, że dla powyższej tabeli można ułożyć równoważne równania dla linii z jedynkami w wyniku, czy potrafisz je zapisać ?

Jaś:
Postępujemy identycznie jak wyżej !
Korzystnie jest tu przejść do tabeli symbolicznej w logice dodatniej (do teorii zbiorów! ) przyjmując:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
Stąd mamy definicję sumy logicznej w wersji symbolicznej:
Kod:

Dotrzymam słowa (Logika dodatnia bo Y) gdy:
Y=p+q = p*q+p*~q+~p*q
 p* q = Y     /1 1 =1
 p*~q = Y     /1 0 =1
~p* q = Y     /0 1 =1
Skłamię (logika ujemna bo ~Y) gdy:
~p*~q =~Y     /0 0 =0

Stąd równoważne równanie algebry Boole’a dla samych jedynek (Y) przybierze postać:
C.
Y=p+q = (p*q)+(p*~q)+(~p*q)
Z powyższym równaniem możemy przejść do logiki ujemnej negując sygnały i wymieniając operatory na przeciwne.
D.
~Y = ~p*~q = (~p+~q)*(~p+q)*(p+~q)
Negujemy stronami przechodząc do logiki dodatniej:
Y = ~[~p*~q] = ~[(~p+~q)*(~p+q)*(p+~q)]

Twierdzenie Prosiaczka w równaniu algebry Kubusia:
Y=p+q
Y=p*q+ p*~q +~p*q

Oczywiście:
Y=Y
Y= p+q = p*q+ p*~q +~p*q
Dowód metoda przejścia do logiki przeciwnej i z powrotem:
Y=p*q+ p*~q +~p*q
Y=p(q+~q)+~p*q
Prawa algebry Kubusia:
q+~q=1
p*1=p
stąd:
Y=p+(~p*q)
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i odwrócenie spójników:
~Y = ~p(p+~q)
stąd:
~Y=~p*p+~p*~q
Prawa algebry Kubusia:
~p*p=0
0+A=A
stąd:
~Y=~p*~q
Przechodzimy z powrotem do logiki dodatniej poprze negację zmiennych i wymianę spójników na przeciwne.
Y=p+q
cnd

Z powyższego wynika że to samo zdanie:
Y=p+q
możemy wypowiedzieć na wiele różnych sposobów.

W naturalnym języku mówionym najczęściej używamy formy najprostszej jak wyżej. Część z możliwych zdań równoważnych będzie dla człowieka trudno zrozumiała.

Dowód, iż tabelę zero-jedynkową operatora OR możemy opisać ośmioma równaniami algebry Kubusia na przykładzie.

Przykład:
A1.
Jutro pójdę do kina lub do teatru
Y=K+T
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów.
A2.
Skłamię (~Y=1) gdy jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y=~K*~T
Związek logiki dodatniej i ujemnej:
Y=~(~Y)
stąd:
Y = K+T = ~(~K*~T)
A3.
Nie może się zdarzyć, że jutro nie pójdę do kina i nie pójdę do teatru
Y = K+T = ~(~K*~T)
A4.
Wyłącznie negujemy równanie A1:
~Y = ~(K+T)
Skłamię (~Y) jeśli nie zdarzy się ~(…), że jutro pójdę do kina (K=1) lub do teatru (T=1)

Analogiczną serię zdań otrzymamy dla równań równoważnych ułożonych dla jedynek w definicji zero-jedynkowej sumy logicznej.
B1.
Y=K+T = K*T+K*~T+~K*T
czyli:
Dotrzymam słowa, jeśli wystąpi którekolwiek zdarzenie:
K*T - byłem w kinie i w teatrze
K*~T - byłem w kinie i nie byłem w teatrze
~K*T - nie byłem w kinie i byłem w teatrze
Oczywiście wyłącznie jedno z powyższych zdarzeń ma szansę wystąpić w rzeczywistości.

… a kiedy skłamię ?
Przejście ze zdaniem B1 do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne:
B2.
~Y = (~K+~T)*(~K+T)*(K+~T)
Negujemy dwustronnie i mamy kolejne możliwe zdanie:
B3.
Y = ~[(~K+~Y)*(~K+T)*(K+~T)]
Ostatnie możliwe zdanie otrzymujemy negując dwustronnie B1:
B4.
~Y= ~[(K*T)+(K*~T)+(~K*T)]

Mamy wyżej fantastyczną możliwość powiedzenia tego samego na wiele różnych sposobów.

Wszystkie zdania z wyjątkiem B2 i B3 są dla przeciętnego człowieka intuicyjnie zrozumiałe!

Zdania B2 i B3 to rozbudowane zdania ze zmiennymi w logice ujemnej w stosunku do zdania wypowiedzianego A1.

Na zakończenie rozważmy bardziej złożony przykład.

Dana jest funkcja logiczna:
Y=A+B*C
1.
Narysuj tabele zero-jedynkową dla tej funkcji
2.
Na podstawie narysowanej tabeli zapisać funkcję alternatywną, równoważną
3.
Udowodnić bez tabeli zero-jedynkowej tożsamość tych funkcji

Rozwiązanie:
1.
Kod:

A B C  B*C  Y=A+B*C
1 1 1   1    1
1 1 0   0    1
1 0 1   0    1
1 0 0   0    1
0 1 1   1    1
0 1 0   0    0
0 0 1   0    0
0 0 0   0    0

Twierdzenie:
Równanie algebry Boole’a dla dowolnej tabeli zero-jedynkowej uzyskamy opisując linie z ta samą wartością w wyniku.

Najprostsze równanie algebry Boole’a utworzymy z trzech ostatnich linii bo tu mamy najmniejszą ilość zer w wyniku.

Kolejno dla linii z samymi zerami mamy:
Krok A.
Y=0 <=> A=0 i B=1 i C=0
LUB
Y=0 <=> A=0 i B=0 i C=1
LUB
Y=0 <=> A=0 i B=0 i C=0

Najprościej utworzyć równanie algebry Kubusia w logice dodatniej sprowadzając wszystkie zmienne do jedynek, będziemy mieli wówczas 100% zgodność z naturalną logika człowieka, czyli opisem tabeli w kroku A.
Oczywiście:
Jeśli Y=1 to ~Y=1
Jeśli A=0 to ~A=1
itd

Ze zmiennymi które mają wartość 1 nic nie robimy, po prostu je przepisujemy.

Stąd układ równań A przyjmie postać:
Krok B.
~Y=1 <=> ~A=1 i B=1 i ~C=1
LUB
~Y=1 <=> ~A=1 i ~B=1 i C=1
LUB
~Y=1 <=> ~A=1 i ~B=1 i ~C=1

Krok C.
Wywalamy jedynki w kosmos i zastępujemy spójniki logiczne symbolami:
+ = „lub”
* = „i”
Stąd mamy:
C.
~Y = ~A*B*~C + ~A*~B*C + ~A*~B*~C
stąd:
Y=~[~A*B*~C + ~A*~B*C + ~A*~B*~C]

Krok C.
Matematyczny dowód iż zachodzi:
Y=A+B*C = ~[~A*B*~C + ~A*~B*C + ~A*~B*~C]
Bez użycia tabel zero-jedynkowych !

Przekształcamy równanie C:
Y= ~[~A*B*~C + ~A*~B*C + ~A*~B*~C]
Negujemy stronami:
~Y = ~A*B*~C + ~A*~B*C + ~A*~B*~C
~Y = ~A(B*~C + ~B*C + ~B*~C)
~Y = ~A[B*~C + ~B(C+~C)]
Prawa algebry Kubusia:
C+~C=1
~B*1=~B
stąd:
~Y = ~A[(B*~C) + ~B]
Przechodzimy do logiki przeciwnej poprzez negacje zmiennych i wymianę spójników na przeciwne
Y = A+[(~B+C)*B]
Y=A+(~B*B + C*B)
Oczywiście prawa algebry Boole’a::
~B*B=0
0+A=A
stąd:
Y=A+B*C
CND

Jak mi ktoś jeszcze powie, iż algebra Kubusia nie jest absolutnie i genialnie prosta to kubeł miodu na jego głowę poleci!


8.0 Aksjomatyczne definicje operatorów logicznych

Podstawowe definicje dwuelementowej algebry Kubusia to po prostu pełna lista operatorów logicznych.

Aksjomatyczne definicje operatorów logicznych w algebrze Boole’a i algebrze Kubusia:
Kod:

p q  OR NOR  AND NAND  <=> XOR  => N(=>) ~> N(~>)  ~~>  N(~~>)  P NP  Q NQ
1 1  1   0    1   0     1   0   1    0   1    0     1    0      1 0   1 0
1 0  1   0    0   1     0   1   0    1   1    0     1    0      1 0   0 1
0 1  1   0    0   1     0   1   1    0   0    1     1    0      0 1   1 0
0 0  0   1    0   1     1   0   1    0   1    0     1    0      0 1   0 1

Kod:

Logika dodatnia    Logika ujemna
OR                 NOR
AND                NAND
<=>                XOR
=>                 N(=>)
~>                 N(~>)
~~>                N(~~>)
P                  NP
Q                  NQ

Wszystkich możliwych operatorów logicznych dwuargumentowych jest 16. Za operatory dodatnie przyjęto te, które człowiek używa w naturalnym języku mówionym.

Operator ujemny to zanegowany operator dodatni, co doskonale widać w powyższej tabeli.
Operator dodatni to zanegowany operator ujemny, co również widać wyżej.
Kod:

Definicje operatorów ujemnych:
pNORq       =     ~(p+q)
pNANDq      =     ~(p*q)
pXORq       =     ~(p<=>q)
pN(=>)q     =     ~(p=>q)
pN(~>)q     =     ~(p~>q)   
p~~>q       =     ~(p~~>q)
pNPq        =     ~(pPq)
pNQq        =     ~(pQq)

W języku mówionym operatory ujemne nie są używane, ponieważ łatwo je zastąpić operatorami dodatnimi plus negacją co widać w powyższej tabeli.

Dowolny operator logiczny jest jednoznacznie zdefiniowany tabelą zero-jedynkową i nie ma tu miejsca na jego niejednoznaczną interpretację. Argumenty w dowolnym operatorze logicznym mogą być albo przemienne (AND, OR, <=>), albo nieprzemienne (implikacja prosta i implikacja odwrotna).

Operatory ~~>, OR, AND, implikacji prostej, implikacji odwrotnej i równoważności zostały omówione w części I i II.

Zajmiemy się operatorami dotychczas nie omówionymi.


8.1 Abstrakcyjny model operatora logicznego

Wyobraźmy sobie czarną skrzynkę z dwoma przełącznikami p i q na których można ustawiać logiczne 0 albo 1. Wyjściem w tej skrzynce jest lampka Y sterowana przez najprawdziwszego krasnoludka imieniem OPERATOR w następujący sposób.
Y=1 - lampka zaświecona
Y=0 - lampka zgaszona
Panel sterowania naszej czarnej skrzynki umożliwia wybór jednego z 16 możliwych operatorów logicznych.
Fizyczna realizacja takiej czarnej skrzynki w technice TTL jest banalna. W laboratorium techniki cyfrowej można sprawdzić doświadczalnie działanie wszystkich 16 operatorów logicznych. Pewne jest że teoria matematyczna musi być w 100% zgodna z rzeczywistością co jest dowodem że … krasnoludki są na świecie.


8.2 Operatory logiczne ~~> i N(~~>)

Definicje ~~> i N(~~>)
Kod:

p q Y=p~~>q Y=~(p~~>q)
1 1  =1       =0
1 0  =1       =0
0 1  =1       =0
0 0  =1       =0

Jak widzimy po wybraniu operatora ~~> krasnoludek OPERATOR zapala lampkę na wyjściu Y=1, siada na stołeczku i odpoczywa kompletnie nie interesując się co też człowiek na wejściach p i q sobie ustawia. Analogicznie jeśli wybierzemy operator N(~~>) to lampka na wyjściu Y będzie cały czas zgaszona (Y=0).


8.3 Operatory transmisji P i Q

Definicje operatorów transmisji P i Q:
Kod:

p q Y=pPq Y=pQq
1 1  =1    =1
1 0  =1    =0
0 1  =0    =1
0 0  =0    =0

Operator P generuje na wyjściu Y sygnał identyczny z tym jaki widnieje po lewej stronie operatora P:
pPq =p
Fizycznie operator pPq to po prostu połączenie kabelkiem wejścia p z wyjściem Y, wejście q jest tu zupełnie nieistotne i można je usunąć.
Z powyższego wynika że operator P można i należy zredukować do sygnału widniejącego po lewej stronie operatora P, czyli całość redukujemy do operatora jednoargumentowego o definicji.

Definicja operatora transmisji:
Kod:

p Y=pP=p
1  =1
0  =0

Analogicznie operator Q można i należy zredukować do sygnału widniejącego z prawej strony operatora Q.
pQq=q

Operator transmisji w zbiorach:



Y=p

Przykład:
A.
Jutro pójdę do kina
Y=K
Matematycznie oznacza to:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1)
Y=K
Y=1 <=> K=1

… a kiedy skłamię ?
Negujemy tożsamość A dwustronnie:
~Y=~K
B.
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1)
~Y=~K
~Y=1 <=> ~K=1


8.4 operatory negacji NP i NQ

Definicje operatorów negacji NP i NQ
Kod:

p q Y=pNPq Y=pNQq
1 1  =0     =0
1 0  =0     =1
0 1  =1     =0
0 0  =1     =1

Doskonale widać, że na wyjściu operatora pNPq mamy:
Y=pNPq = pNP = ~p
Na wyjściu Y mamy zanegowany sygnał z wejścia p, sygnał q jest tu totalnie nieistotny i można go do kosza wyrzucić. Fizycznie ten operator to połączenie wejścia p z wyjściem Y poprzez układ negatora, czyli całość to w rzeczywistości jednoargumentowy układ negatora o definicji jak niżej.

Definicja negatora:
Kod:

p Y=pNP=~p
1  =0
0  =1

Gdzie:
~ - symbol negacji, w mowie potocznej przeczenie NIE

Analogiczną funkcję negatora realizuje operator pNQq:
Y=pNQq = NQq=~q

Jedno z kluczowych praw algebry Kubusia (Boole’a)
A=~(~A) – prawo podwójnego przeczenia
Przykład:
Jestem uczciwy
U
Zaprzeczenie:
Nie jestem uczciwy
~U
Podwójne zaprzeczenie:
Nieprawdą jest, że jestem nieuczciwy = jestem uczciwy
~(~U) = U

Dowód formalny:
Kod:

~Y=p  Y=~p  ~Y=~(~p)
  1    =0     =1
  0    =1     =0

Tożsamość kolumn pierwszej i ostatniej jest dowodem poprawności prawa podwójnego przeczenia.

Operator negacji w zbiorach:



Y=~p

Przykład:
A.
Jutro nie pójdę do kina
Y=~K
Matematycznie oznacza to:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1)
Y=~K
Y=1 <=> ~K=1

… a kiedy skłamię ?
Negujemy tożsamość A dwustronnie:
~Y=K
B.
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1)
~Y=K
~Y=1 <=> K=1


8.5 Operator implikacji prostej zdefiniowany spójnikiem “i”(*)

Definicja zero-jedynkowa operatora implikacji prostej:
Kod:

p q Y= p=>q ~Y=~(p=>q)
Warunek wystarczający w logice dodatniej (bo q)
1 1   =1     =0     /p=>q=1
1 0   =0     =1     /p=>~q=0
Warunek wystarczający w logice ujemnej (bo ~q)
0 0   =1     =0     /~p~>~q=1
0 1   =1     =0     /~p~~>q=1

Najprostsza definicję implikacji prostej wyrażoną w spójniku „i”(*) otrzymamy z drugiej linii:
A.
~Y = ~(p=>q) = p*~q
czyli:
Skłamię (~Y=1) wtedy i tylko wtedy gdy zajdzie p i nie zajdzie q

… a kiedy dotrzymam słowa ?
Negujemy równanie a dwustronnie:
B.
Y=p=>q = ~(p*~q)
czyli:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy nie zdarzy się ~(…), że zajdzie p (p=1) i nie zajdzie q (~q=1)

Wyrażenie implikacji prostej w spójniku „i”(*) to największa tragedia matematyczna w historii ludzkości.

Zauważmy, że mamy tu poprawną wiedzę kiedy nie skłamiemy, ale nie mamy informacji o gwarancji matematycznej, istocie definicji implikacji!

Weźmy doskonale znany nam przykład:

Warunek wystarczający => !
A.
Jeśli zwierze jest psem to na pewno => ma cztery łapy
P=>4L=1 bo pies – gwarancja matematyczna, twarda prawda, zachodzi zawsze bez wyjątków
Bycie psem wystarcza aby mieć cztery łapy
stąd:
B.
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L=0 – twardy fałsz wynikły tylko i wyłącznie z powyższej twardej prawdy

… a jeśli zwierze nie jest psem ?
Prawo Kubusia:
P=>4L = ~P~>~4L

Warunek konieczny ~> !
C.
Jeśli zwierzę nie jest psem to może ~> nie mieć czterech łap
~P~>~4L=1 bo kura – miękka prawa, może zajść ale nie musi
D.
Jeśli zwierze nie jest psem to może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń – miękka prawda, może zajść ale nie musi

Dla kodowania zgodnego ze zdaniem wypowiedzianym:
A: P=>4L
P=1, ~P=0
4L=1, ~4L=0
Otrzymamy tabele zero-jedynkowa implikacji prostej:
Kod:

A: P=>4L  =1    /1 1 =1
B: P=>~4L =0    /1 0 =0
… a jeśli zwierze nie jest psem?
Prawo Kubusia:
P=>4L = ~P~>~4L
C: ~P~>~4L=1   /0 0 =1
D: ~P~~>4L=1   /0 1 =1


Jak działa implikacja ?
Na początku wszystkie pudełka A,B,C,D maja wartość logiczną 0, czyli fałsz.
Losujemy po kolei wszystkie ziemskie zwierzęta i wkładamy je do odpowiednich pudelek.
Oczywiście po przeiterowaniu po wszystkich zwierzakach wyłącznie pudełko B będzie puste (fałsz=0), pozostałe będą niepuste (prawda=1), stąd taki a nie inny rozkład wynikowych jedynek w definicji implikacji.

Traktowanie operatora implikacji prostej spójnikiem „i”(*) zrównuje matematycznie bezcenną twardą prawdę (zdanie A = gwarancja matematyczna) z prawdami miękkimi w zdaniach C i D (rzucanie monetą).

Zdanie A wyrażone przy pomocy spójnika „I”(*) przybierze brzmienie:
p=>q = ~(p*~q)
Nasz przykład:
P=>4L = ~(P*~4L)
czyli:
A1.
Nie może się zdarzyć ~(…), że zwierze jest psem (P=1) i nie ma czterech łap (~4L=1)
~(P*~4L)
Poza tym wszystko może się zdarzyć !
Czyli wszystkie wynikowe jedynki w powyższej tabeli zero-jedynkowej są tak samo prawdopodobne, gubimy tu istotą implikacji, czyli do jednego worka wrzucamy bezcenną twardą prawdę (zdanie A) i dwie prawdy miękkie czyli rzucanie monetą (zdania C i D).

Zauważmy, że nikt normalny mając do wyboru zdania A i równoważne zdanie A1 nie wypowie zdania A1, bo nie będzie z siebie robił idioty. Zdanie A1 może być użyte w szczególnych okolicznościach np. gdy uczymy 3-latka naturalnego języka mówionego, algebry Kubusia.

Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N – implikacja prosta na mocy definicji

Definicja groźby:
jeśli dowolny warunek to kara
W~>K – implikacja odwrotna na mocy definicji

Tata:
A.
Jeśli będziesz grzeczny dostaniesz czekoladę
G=>C=1
Jaś (lat 3):
… a jeśli nie będę grzeczny ?
W mózgu taty generowane jest prawo Kubusia:
G=>C = ~G~>~C
Tata:
C.
Jeśli nie będziesz grzeczny to nie dostaniesz czekolady
~G~>~C=1
LUB
D.
Jeśli nie będziesz grzeczny to dostaniesz czekoladę
~G~~>C=1 – akt miłości, prawo do wręczenia czekolady mimo nie spełnionego warunku nagrody

Oczywiście tata wypowiada wyłącznie zdanie C, które to zdanie jest ewidentna groźbą z domyślnym na mocy definicji groźby spójnikiem „może” ~>, który nie musi być wypowiedziany.

Jaś:
Tata, a czy może się zdarzyć że będę grzeczny i nie dostane czekolady ?

Tata:
Nie może się zdarzyć ~(…), że będziesz grzeczny (G=1) i nie dostaniesz czekolady (~C=1)
G=>C = ~(G*~C)

Tylko i wyłącznie w takim przypadku sensowne jest wypowiedzenie zdania A1.

Zdanie wytłuszczone wyżej („poza tym wszystko może się zdarzyć”) to kluczowy błąd matematyczny, zrównującym prawdy w zdaniach A, C, D. W tym przypadku mamy fałszywy obraz implikacji prostej, zrównujący 100% pewność (zdanie A) z najzwyklejszym rzucaniem monetą (zdania C i D).

Dokładnie to generuje głupoty w stylu:
„Z fałszu może powstać prawda” itp.

Oczywiście w rzeczywistości nie ma mowy aby z prawdy powstał fałsz, jak również nie ma mowy aby z fałszu powstała prawda.

Taka jest jedyna poprawna matematyka naszego Wszechświata, algebra Kubusia.
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
Rafal3011




Dołączył: 16 Wrz 2011
Posty: 142
Przeczytał: 0 tematów

Skąd: GDAŃSK
Płeć: Mężczyzna

PostWysłany: Wto 16:33, 13 Gru 2011    Temat postu:

Część IV
Algebra Kubusia w służbie lingwistyki


9.0 Algebra Kubusia w służbie lingwistyki

Algebra Kubusia to fundament logiki człowieka, a tym samym fundament naturalnego języka mówionego.

Fundament algebry Kubusia:
1 - zdanie prawdziwe = zbiór niepusty
0 - zdanie fałszywe = zbiór pusty

Definicja iloczynu logicznego:
Iloczyn logiczny (spójnik „i”) jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1
Y=p*q
Y=1 <=> p=1 i q=1

Definicja sumy logicznej
Suma logiczna (spójnik „lub”) n zmiennych binarnych jest równa 1 wtedy i tylko wtedy gdy którakolwiek zmienna jest równa 1
Y=p+q
Y=1 <=>p=1 lub q=1

Aksjomat algebry Kubusia:
Wszelkie przeczenia zawarte w zdaniach muszą być uwidocznione w równaniu algebry Kubusia opisującym to zdanie
Przykład:
Pies ma cztery łapy i nie miauczy
P=>4L*~M


9.1 Podstawowe prawa redukcji zdań

1.
Założenie: q=0 – zbiór pusty
Iloczyn logiczny zbioru pustego z czymkolwiek jest zbiorem pustym
Y=p*q=0
Dowód:
Jeśli q=0 (zbiór pusty) to:
Y=p*0=0 – prawo algebry Kubusia (i Boole’a)

2.
Założenie: q=0 – zbiór pusty
Suma logiczna zbioru pustego i czegokolwiek jest tym czymkolwiek
Y=p+q=p
Jeśli q=0 (zbiór pusty) to:
Y=p
bo:
p+0=p – prawo algebry Kubusia (i Boole’a)
Zauważmy, że pozostawienie zdeterminowanego q=0 w powyższym równaniu to błąd czysto matematyczny bowiem znaczenie matematyczne dowolnego równania algebry Boole’a jest następujące.
Y=p+q
Matematycznie oznacza to:
Y=1 <=> p=1 lub q=1
W przypadku q=0 mamy niedopuszczalną kolizję


9.2 Świat niezdeterminowany

Definicja:
Świat niezdeterminowany to świat w którym nie znamy z góry wartości logicznej ani jednej zmiennej

Przykład 1
Jutro pójdę do kina
Y=K
Matematycznie oznacza to:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1)
Y=K
Y=1 <=> K=1
… a kiedy skłamię ?
Negujemy stronami bo to jest równoważność (tożsamość):
~Y=~K
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1)
~Y=~K
~Y=1 <=> ~K=1
Oczywiście stan:
~K=1 - nie byłem wczoraj w kinie ma szansę wystąpić
Wtedy skłamałem:
~Y=1

Przykład 2
Jutro nie pójdę do kina
Y=~K
Matematycznie oznacza to:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1)
Y=~K
Y=1 <=> ~K=1
… a kiedy skłamię ?
Negujemy stronami bo to jest równoważność (tożsamość):
~Y=K
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1)
~Y=K
~Y=1 <=> K=1
Oczywiście stan:
K=1 - byłem wczoraj w kinie ma szansę wystąpić
Wtedy skłamałem:
~Y=1


9.3 Świat zdeterminowany

Definicja:
Świat zdeterminowany to świat w którym wartości zmiennych logicznych są znane z góry.

Determinizm może być:
Całkowity, gdy znamy z góry wartości logiczne wszystkich zmiennych
Częściowy, gdy znamy z góry wartości logiczne niektórych zmiennych


9.4 Prawa wynikające z definicji sumy logicznej

Definicja sumy logicznej
Suma logiczna (spójnik „lub”) n zmiennych binarnych jest równa 1 wtedy i tylko wtedy gdy którakolwiek zmienna jest równa 1
Y=p+q
Y=1 <=>p=1 lub q=1

Prawo eliminacji fałszu w sumie logicznej:
Y=p+q
Jeśli q=0 to:
Y=p
bo:
p+0=0 – prawo algebry Kubusia

Przykład:
A.
Pies szczeka lub miauczy
P=>S+M
Dla psa mamy:
M=0
Po redukcji mamy:
Pies szczeka
P=>S

Zauważmy, że takiej redukcji musimy dokonać inaczej mamy fałszywy matematycznie opis zdania A bowiem zapis:
P=>S+M
oznacza matematycznie:
P=1 => S=1 lub M=1
Losujemy zwierzaka:
Kot = miauczy
… i z powyższego równania wychodzi nam bzdura, że miauczenie to cecha psa!

Prawo redukcji prawdy powstałej z negacji fałszu:
Y=p+~q
Jeśli ~q=1 to:
Y=p
Dowód:
jeśli ~q=1
to:
q=0 – zbiór pusty = zdanie fałszywe
Z punktu widzenia języka mówionego taka zmienne jest bezwartościowa, stąd jej redukcja.
Od strony matematycznej takie zdanie jest poprawne bowiem zapis:
Y=p+~q
Oznacza matematycznie:
Y=1 <=> p=1 lub ~q=1
Zatem takiej redukcji możemy dokonać, ale nie musimy dokonać!

Przykład:
A.
Pies szczeka lub nie miauczy
P=>S+~M
Dla psa mamy:
M=0 – zbiór psów miauczących jest zbiorem pustym
Stąd zdanie A precyzyjnie wypowiedziane:
B.
Pies szczeka
P=>S


9.5 Prawa wynikające z definicji iloczynu logicznego

Definicja iloczynu logicznego
Iloczyn logiczny (spójnik „i”) n zmiennych binarnych jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1
Y=p*q
Y=1 <=>p=1 i q=1

Oczywiście jeśli zmienna q=0 jest zdeterminowana to:
Y=p*q = 1*0=0
Zdanie jest fałszywe.

Przykład:
A.
Pies szczeka i miauczy
P=>S*M
Dla psa mamy:
M=0
Zatem:
P=S*M=1*0=0
Całe zdanie jest fałszywe, wyrzucamy do kosza.

Prawo redukcji prawdy powstałej z negacji fałszu:
Y=p*~q
Jeśli ~q=1 to:
Y=p
Dowód:
jeśli ~q=1
to:
q=0 – zbiór pusty = zdanie fałszywe
Z punktu widzenia języka mówionego taka zmienne jest bezwartościowa, stąd redukcja ~q.

Od strony matematycznej takie zdanie jest poprawne bowiem zapis:
Y=p*~q
Oznacza matematycznie:
Y=1 <=> p=1 i ~q=1
Zatem takiej redukcji możemy dokonać, ale nie musimy dokonać!

Przykład:
A.
Pies szczeka i nie miauczy
P=>S*~M
Dla psa mamy:
M=0 – zbiór psów miauczących jest zbiorem pustym
Stąd zdanie A po redukcji:
B.
Pies szczeka
P=>S


9.6 Operatory OR i AND w świecie zdeterminowanym

Definicja determinizmu:
Determinizm to pełna lub częściowa znajomość rozwiązania

Definicja świata niezdeterminowanego:
Świat jest niezdeterminowany, gdy wartości logiczne zdań wchodzących w skład operatora logicznego nie są zdeterminowane ani częściowo, ani całkowicie.

Zacznijmy od błahostki ze świata totalnie zdeterminowanego, gdzie z góry znamy wartości logiczne wszystkich zmiennych.

Przykład 1
Czy wiesz drogi czytelniku dlaczego Pani Przedszkolanka koryguje trzylatków którzy mówią:
A.
Pies ma cztery łapy lub szczeka
P=>(4L+S)
żądając jedynie słusznej formy:
B.
Pies ma cztery łapy i szczeka
P=>4L*S

Oczywiście nie wynika to z chciejstwa pani przedszkolanki, lecz z matematyki ścisłej, algebry Kubusia, pod którą wszyscy podlegamy.

Zdanie A jest matematycznie równoważne zdaniu:
Jeśli zwierzę jest psem to na pewno => ma cztery łapy lub szczeka
P=>(4L+S)

Rozpiszmy następnik zgodnie z definicją szczegółową spójnika ‘lub”:
Y=p+q = p*q+p*~q+~p*q
stąd:
C.
Dla psa mamy:
4L+S = (4L*S=1) + (4L*~S=0) + (~4L*S=0)

… i wszystko jasne, dwa ostatnie człony są fałszywe, zatem możemy je wywalić w kosmos.

Stąd po minimalizacji funkcji C otrzymujemy zdanie:
B.
Jeśli zwierze jest psem to na pewno => ma cztery łapy i szczeka
P=>4L*S

Zdanie równoważne w języku potocznym:
Pies ma cztery łapy i szczeka
P=>4L*S

Stąd znana każdemu poloniście reguła lingwistyczna:
Jeśli definiujemy cokolwiek to powinniśmy używać spójnika „i”.

Weźmy kolejny przykład.

Przykład 2
Zdanie wypowiedziane:
A.
Jutro pójdę do kina lub do teatru
Y=K+T
Y=1 <=> K=1 lub T=1

To samo zdanie w rozwinięciu szczegółowym:
Y= K+T = K*T+K*~T+~K*T
Dotrzymam słowa (Y) jeśli:
A.
Jutro pójdę do kina i do teatru
Y=K*T
LUB
B.
Jutro pójdę do kina i nie pójdę do teatru
Y=K*~T
LUB
C.
Jutro nie pójdę do Kina i pójdę do teatru
Y+~K*T
… a kiedy skłamie ?
Przejście ze zdaniem A do logiki przeciwnej poprzez negacje zmiennych i wymianę operatorów na przeciwne
~Y=~K*~T
D.
Skłamię (~Y) jeśli jutro nie pójdę do kina (~K) i nie pójdę do teatru (~T)
~Y=~K*~T
~Y=1 <=> ~K=1 i ~T=1

Oczywiście po jutrze wyłącznie jedno zdanie ze zdań A,B,C,D może być prawdziwe, pozostałe będą fałszywe, nie ma innej możliwości matematycznej. Ten świat jest niezdeterminowany, bowiem jutro dowolne z powyższych zdań może być prawdziwe.

Weźmy teraz nasz przykład w skróconym zapisie symbolicznym:
Kod:

Dotrzymam słowa (Y) gdy:
Y=K+T – zdanie wypowiedziane
Y=K+T = K*T+K*~T+~K*T
A: K* T= Y
B: K*~T= Y
C:~K* T= Y
… a kiedy skłamię ?
Przejście do logiki przeciwnej!
~Y - skłamię
D:~K*~T=~Y

Zauważmy, że symboliczna tabela operatorowa OR pokazuje wszystkie możliwe przypadki jakie jutro mogą zajść. Najważniejsza informacja to rozstrzygnięcie kiedy jutro dotrzymam słowa (Y), a kiedy skłamię (~Y). Oczywiście jutro może zajść wyłącznie jeden z powyższych przypadków, dzisiaj nie wiemy który, czyli rzeczywistość nie jest zdeterminowana.

Definicja miękkiej i twardej prawdy w logice:
Miękka prawda, może zajść ale nie musi, przykładem jest tu spójnik „lub”.
Twarda prawda, tylko jedno zdanie może być prawdziwe, przykładem jest tu spójnik „i”

Spójnik „lub” w naszym przykładzie to wyłącznie zdania A,B,C. Dla konkretnego losowania wyłącznie jedno z tych zdań może być prawdziwe.

Spójnik „i” w naszym przykładzie to wyłącznie zdanie D.
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y=~K*~T
~Y=1 <=> ~K=1 i ~T=1

Definicja:
Determinizm to pełna lub częściowa znajomość rozwiązania

W szczególności:
Przeszłość = 100% determinizm.
Co się stało to się nie odstanie, film pt. „Nasz Wszechświat” został nakręcony i nic w nim nie można zmienić.

Twierdzenie:
We wszystkich operatorach (w tym w OR i AND) znajomość rozwiązania determinuje jedno, jedyne zdanie prawdziwe ze spójnikiem „i”(*), czyli takie zdanie będzie spełniało definicję operatora AND !

Załóżmy, że dla naszego przykładu wyżej zaszedł przypadek C.
C.
Wczoraj nie byliśmy w kinie i byliśmy w teatrze
Y=~K*T
Y=1 <=> ~K=1 i T=1
stąd dla punktu odniesienia ustalonym na zaistniałej rzeczywistości mamy:
~K=1, K=0
T=1, ~T=0
Nasza tabela symboliczna w kodowaniu zero-jedynkowym w świecie zdeterminowanym przybierze postać:
Kod:

Dotrzymam słowa (Y) gdy:
Y=K+T – zdanie wypowiedziane
Y=K+T = K*T+K*~T+~K*T
A: K* T= Y     /0*1 =0
B: K*~T= Y     /0*0 =0
C:~K* T= Y     /1*1 =1 – wyłącznie to zdanie jest prawdziwe !
… a kiedy skłamię ?
Przejście do logiki przeciwnej!
~Y - skłamię
D:~K*~T=~Y     /1*0 =0

W przypadku determinizmu wynikowe zera i jedynki generowane są na podstawie zaistniałej rzeczywistości zgodnie z definicją spójnika „i”. Jak widzimy w tym przypadku nasza tabela przeszła jednoznacznie w operator AND zgodnie ze zdaniem wypowiedzianym C.

Weźmy inny przykład ze świata totalnie zdeterminowanego.

Przykład 3
A.
Dowolny kraj leży w Europie, Azji lub Afryce
Y=E+Az+Af
Dla uproszczenia celowo pominięto pozostałe kontynenty
Prawo ogólne dla trzech zmiennych:
A.
Y=p+q+r
Y – wystąpi prawda, logika dodatnia bo Y
To samo w rozpisce szczegółowiej na podstawie szczegółowej definicji spójnika „lub”(+)
B.
Y=p*q*r = p*q*r+p*q*~r+p*~q*r+p*~q*~r+~p*q*r+~p*q*~r+~p*~q*r
… a kiedy wystąpi fałsz?
Przejście ze zdaniem A do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów
C.
~Y=p*q*r
~Y – wystąpi fałsz, logika ujemna bo ~Y
Wyłącznie ta sekwencja iloczynu nie ma prawa pojawić się w równaniu B, pozostałe przypadki musza być w równaniu B uwzględnione!

Wróćmy do naszego przykładu.

Zdanie A będzie prawdziwe jeśli:
Y = E+Az+Af
czyli:
1: E*Az*Af =Y
lub
2: E*Az*~AF=Y
lub
3: E*~Az*Af=Y
lub
4: E*~Az*~Af=Y
lub
5: ~E*Az*Af=Y
lub
6: ~E*Az*~Af=Y
lub
7. ~E*~Az*Af=Y
… a kiedy zdanie A będzie fałszywe ?
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i wymianę argumentów
8. ~E*~Az*~Af= ~Y

Zauważmy, że dowolny kraj musi gdzieś leżeć, zatem linia 8 będzie zawsze fałszem dla dowolnego, wylosowanego kraju

Losujemy kraj: Polska

Oczywiście w tym przypadku wyłącznie linia 4 będzie prawdziwa:
4.
Polska leży w Europie i nie leży w Azji i nie leży w Afryce
Y = E*~Az*~Af
Y=1 <=> E=1 i ~Az=1 i ~Af=1 = 1*1*1 =1
Ten punkt odniesienia determinuje:
E=1, ~E=0
~Az=1, Az=0
~Af=1, Af=0
Oczywiście wyjście Y nie jest determinowane. Wyjście Y przyjmuje wartość 0 albo 1 w zależności od aktualnej wartości zmiennych na wejściu.

Tabela zero-jedynkowa dla naszego przykładu przybierze więc postać:
Y = E+Az+Af
czyli:
1: E*Az*Af =Y
1*0* 0 =0
lub
2: E*Az*~AF=Y
0*0*1=0
lub
3: E*~Az*Af=Y
0*1*0 =0
lub
Jedyne zdanie prawdziwe:
4: E*~Az*~Af=Y
1 1 1 =1
lub
5: ~E*Az*Af=Y
0*0*0 =0
lub
6: ~E*Az*~AF=Y
0*0*1 =0
lub
7. ~E*~Az*Af=Y
0*1*0 =0
… a kiedy zdanie A będzie fałszywe ?
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i wymianę argumentów
8. ~E*~Az*~Af= ~Y
0 1 1 =0

Polska leży wyłącznie na jednym kontynencie, zatem otrzymaliśmy wyżej tabelę zero-jedynkową operatora AND dla zdania wypowiedzianego 4.

Twierdzenie Tygryska:
W świecie zdeterminowanym, gdzie wartości logiczne zmiennych są znane, spójnik logiczny „lub”(+) ulega redukcji do spójnika „i”(*)

Dowód:
W przypadku spójnika „lub”(+) tylko i wyłącznie jedno zdanie może być prawdziwe spośród:
2^n-1
różnych zdań.
gdzie:
2^n – dwa do potęgi n
n – ilość zmiennych
Dla trzech zmiennych mamy:
2^n-1 = 2^3-1 = 8-1 = 7
Co jest zgodne z przykładem wyżej.

Z powyższego wynika, że jedynki w spójniku „lub” (zdania 1-7) wyrażają samą możliwość zajścia, że nie są to prawdy twarde, zachodzące zawsze, bez wyjątków.


Losujemy kraj: Rosja

Oczywiście w tym przypadku będzie prawdziwe wyłącznie zdanie 2.

Rosja leży w Europie i leży w Azji i nie leży w Afryce
Y=E*Az*~Af

Wszystkie pozostałe zdania będą tu fałszywe.

Mózg człowieka genialnie minimalizuje wszelkie funkcje logiczne.

Każde dziecko wypowie zdanie:

Dowolny kraj leży w Europie lub w Azji lub w Afryce
Y=E+Az+Af
(w celu uproszczenia ograniczamy liczbę kontynentów)

… ale już dla konkretnego kraju absolutnie nikt nie powie:
Polska leży w Europie lub w Azji lub w Afryce
P=E+Az+Af
bo doskonale wszyscy wiemy gdzie leży Polska.

W zagadkach takie zdanie jest jak najbardziej sensowne, ale przy znajomości rozwiązania jest bez sensu. Informacja precyzyjna po minimalizacji tej funkcji w sposób wyżej pokazany generuje jedynie słuszne zdanie:

Polska leży w Europie i nie leży w Azji i nie leży w Afryce
P = E*~Az*~Af
P=1 <=> E=1 i ~Az=1 i ~Af=1

Zauważmy, że takiego zdania również nikt nie wypowie z powodu znajomości rozwiązania.
W powyższym równaniu prawdy powstałe z negacji fałszu (~Az=1, ~AF=1) są bezwartościowe i każdy normalny człowiek je zignoruje wypowiadając zdanie precyzyjnie.

Polska leży w Europie
P=E

Zauważmy, że przy znajomości rozwiązania uwzględnianie w równaniu prawd powstałych z negacji fałszu jest bez sensu bo takich prawd jest nieskończenie wiele.

Przykład:
Polska leży w Europie i Polska to nie rzeka i Polska to nie wąsy dziadka ….
P = E * ~R * ~W …
Formalnie to zdanie jest prawdziwe, tyle że sensu w tym nie ma.

Kolejny przykład świata totalnie zdeterminowanego.

W poniższym przykładzie świadomie ograniczamy cechy definiujące psa wyłącznie do dwóch:
Pies ma cztery łapy i szczeka
P=>4L*S
Oczywiście w ogólnym przypadku takich cech może być „nieskończenie wiele”.

Przykład 4
Zdanie wypowiedziane
Jeśli zwierze jest psem to na pewno => ma cztery łapy lub szczeka
P=>4L+S
To samo zdanie wypowiedziane w formie skróconej, czyli w formie zdania twierdzącego.
A.
Pies ma cztery łapy lub szczeka
P=>4L+S
P=1 => 4L=1 lub S=1
Po prawej stronie mamy cech charakteryzujące psa, zatem od strony matematycznej jest wszystko w porządku. Spójnik „lub”(+) nie jest jednak precyzyjny, natomiast logika 5-cio latka jest do bólu precyzyjna i każdy wypowie zdanie A w formie …

W definicji szczegółowej mamy tu:
P=>4L+S =( 4L*S=1)+(4L*~S=0)+(~4L*S=0)
stad po redukcji otrzymujemy zdanie lingwistycznie wzorcowe:
B.
Pies ma cztery łapy i szczeka
P=>4L*S =1*1=1

Z tego powodu każda nauczycielka w przedszkolu będzie wymagała od dzieci wersji B.
Tylko w przypadku B mamy piękne i precyzyjne przejście do logiki ujemnej.

… a kiedy zwierzę nie jest psem ?
Przejście ze zdaniem B do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne
~P~>~4L+~S
Zauważmy, że otrzymaliśmy tu prawo Kubusia metoda na skróty.
Prawo Kubusia dla zdania B:
P=>4L*S = ~P~>~(4L*S)
Prawo de’Morgana dla prawej strony tożsamości:
~(p*q) = ~p+~q
Stąd nasza końcowa funkcja:
~P~>~4L+~S
Czyli:
Zwierze które nie jest psem (~P=1) może nie mieć czterech łap (~4L=1) lub może nie szczekać (~S=1)
~p~>~4L+~S
Losujemy zwierzaka i stwierdzamy:
Nie ma czterech łap
~4L=1
Wniosek:
To zwierzę na pewno nie jest psem, drugiej cechy „czy szczeka” nie musimy sprawdzać
Losujemy zwierzaka i stwierdzamy:
Nie szczeka
~S=1
Wniosek:
To zwierzę na pewno nie jest psem, drugiej cechy „ma cztery łapy” nie musimy sprawdzać

To jest istota spójnika „lub” dokładnie tak musi on działać !

Jeśli zatem ktoś powie:
A.
Pies ma cztery łapy lub szczeka lub miauczy lub ma dwie nogi
P=>4L+S+M+2N
to jest to zdanie matematycznie błędne!
Bowiem równanie algebry Kubusia opisujące to zdanie jest czysto matematycznym błędem!
Dlaczego?
P=>4L+S+M+2N
Taki zapis matematycznie oznacza:
P=1 => 4L=1 lub S=1 lub M=1 lub 2N=1
Czyli jak wylosujemy kota (M) to wyjdzie nam że miauczenie jest cecha psa, co jest idiotyzmem.
Jak wylosujemy kurę (2N) to wychodzi nam iż dwie nogi to cecha psa, czyli brednie.

Wniosek:
W świecie zdeterminowanym, gdy znamy z góry wartości logiczne zmiennych nie wolno nam umieszczać fałszu w spójniku „lub”(+). to jest błąd czysto matematyczny!

Oczywiście zdanie A można zapisać formalnie w taki sposób:
P=1 => 4L=1 lub S=1 lub M=0 lub 2N=0
Aby z takiego zapisu wygenerować równanie algebry Kubusia musimy wszystkie zmienne sprowadzić do jedynek.
W algebrze Kubusia zachodzi:
Jeśli A=0 to ~A=1
stąd:
P=1 => 4L=1 lub S=1 lub ~M=1 lub ~2N=1
Dopiero teraz możemy opuścić jedynki otrzymując poprawne równanie algebry Kubusia:
B.
Pies ma cztery łapy lub szczeka lub nie miauczy lub nie ma dwóch nóg
P=>4L+S+~M+~2N
Równanie B jest matematycznie poprawne ale nie jest to zdanie wzorcowe lingwistycznie.
Po rozwinięciu prawej strony na mocy definicji szczegółowej spójnika „lub”(+) jedynym prawdziwym członem będzie:
C.
P=>4L*S*~M*~2N
czyli:
Jeśli zwierze jest psem to na pewno ma cztery łapy i szczeka i nie miauczy i nie ma dwóch nóg
P=>4L*S*~M*~2N
ale …
To dalej nie jest zdanie lingwistycznie wzorcowe!

W Zdaniu lingwistycznie wzorcowym eliminujemy wszelkie prawdy powstałe z negacji fałszu!

Końcowe zdanie wzorcowe jest takie:
D.
Pies ma cztery łapy i szczeka
P=>4L*S

Czy wszyscy już rozumieją dlaczego średnio rozwinięty 5-cio latek wypowiada precyzyjne zdanie D?
Odpowiedź:
Bo 5-cio latki doskonale znają matematykę, pod która podlega każdy człowiek, algebrę Kubusia!

Oczywiście 5-cio latek może sobie jaja robić i wypowiadać zdanie B bo to też jest zdanie matematycznie prawdziwe.
Zdanie C jest jak najbardziej zdaniem poprawnym i bliskim wzorcowemu, tego typu zdania są fundamentem poprawnej polszczyzny którą w przedszkolu wypracowują wszystkie 5-cio latki .. z pomocą pani przedszkolanki.


Przykład świata częściowo zdeterminowanego:

Przykład 5
A.
Każdy człowiek jest mężczyzną lub kobietą
C=>M+K =1
Matematycznie zdanie to oznacza:
Jeśli ktoś jest człowiekiem to na pewno => jest mężczyzną lub kobietą
C=>K+M
Zauważmy, że zdanie odwrotne też zachodzi:
Jeśli ktoś jest mężczyzną lub kobietą to na pewno jest człowiekiem
K+M =>C
Definicja równoważności:
p<=>q = (p=>q)*(q=>p) = 1*1=1
C<=>M+K
Wniosek:
Zdanie A to równoważność wypowiedziana w formie zdania twierdzącego, czyli zdanie A możemy matematycznie kodować tak:
C=K+M
C=1 <=> K=1 lub M=1

Zdanie A jest prawdziwe (C=1) wtedy i tylko wtedy gdy powiemy:
Każdy człowiek (C=1) jest mężczyzną (M=1) lub kobietą (K=1)
C=1 <=> M=1 lub K=1
Definicja sumy logicznej w rozpisce szczegółowej:
C=M+K = M*K+M*~K+~M*K
co matematycznie oznacza:
C=1 = (M*K=0) + (M*~K=1) +(~M*K=1)
Zdanie:
Człowiek jest mężczyzną i kobietą
C=M*K=0
Jest oczywiście fałszywe, zatem nasz mózg minimalizuje funkcję logiczną do postaci:
C=M*~K+~M*K
Każdy człowiek (C=1) jest mężczyzną i nie jest kobietą (M*~K=1) lub nie jest mężczyzną i jest kobietą (~M*K=1)
… a czy istnieje człowiek który nie jest mężczyzną i nie jest kobietą ?
Przechodzimy ze zdaniem A do logiki ujemnej negując zmienne i wymieniając operatory na przeciwne
~C=~M*~K
Co matematycznie oznacza:
D.
Nie istnieje człowiek (~C=1), który nie jest mężczyzną (~M=1) i nie jest kobietą (~K=1)
~C=~M*~K
~C=1 <=> ~M=1 i ~K=1
Precyzyjny odczyt może być też taki:
D.
Prawdą jest (=1) że nie istnieje człowiek (~C), który nie jest mężczyzną (~M=1) i nie jest kobietą (~K=1)
~C=~M*~K
~C=1 <=> ~M=1 i ~K=1
Zauważmy, że po lewej stronie możemy zapisać:
Jeśli ~C=1 to C=0
czyli zdanie D przybierze postać:
D1.
Fałszem jest (=0) że istnieje człowiek (C), który nie jest mężczyzną (~M=1) i nie jest kobietą (~K=1)
C=0 <=> ~M=1 i ~K=1
Problem w tym, że z takiego zapisu nie da się wyeliminować bezwzględnych zer i jedynek, czyli nie da się zapisać zdania w postaci równania logicznego.
Dlatego taki zapis jest do bani !

Aby wyrugować ze zdania D1 bezwzględne zera i jedynki musimy wszystkie zmienne sprowadzić do tej samej wartości logicznej.

W logice dodatniej (zgodnej z naturalna logiką człowieka) wszystko sprowadzamy do jedynek i korzystamy z definicji spójnika „i”.

Definicja spójnika „i”:
Iloczyn logiczny (spójnik „i”) jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1
Y=p*q
Y=1 <=> p=1 i q=1

Mamy:
D1
C=0 <=> ~M=1 i ~K=1
Jeśli C=0 to ~C=1
stąd:
~C=1 <=> ~M=1 i ~K=1
Dopiero teraz możemy wywalić jedynki i zapisać zdanie w formie równania logicznego:
~C=~M*~K
~C=1 <=> ~M=1 i ~K=1
Czyli w efekcie otrzymaliśmy zdanie D a nie zdanie D1.

Poprawna logika matematyczna to logika symboliczna w równaniach algebry Kubusia izolowana od bezwzględnych zer i jedynek.

Twierdzenie:
Z praw matematycznych możemy korzystać tylko i wyłącznie po wyeliminowaniu bezwzględnych zer i jedynek z dowolnego zapisu logicznego.

Przykłady praw matematycznych:
Prawo de’Morgana:
p+q = ~(~p*~q)
Prawo Kubusia:
p=>q = ~p~>~q

Twierdzenie:
Nie istnieje ani jedno prawo logiczne w którym prawda byłaby pomieszana z fałszem.

Oznacza to zakaz opuszczania bezwzględnych zer i jedynek w przypadku gdy wszystkie zmienne nie są sprowadzone do tej samej wartości logicznej.

Nasz przykład:
D1.
C=0 <=> ~M=1 i ~K=1
Dla powyższego zapisu nie wolno robić takich rzeczy:
C<=>~M*~K
bo to jest błąd czysto matematyczny !

Oczywiście dla dowolnego wylosowanego człowieka będziemy mieli 100% determinizm.

Losujemy: Kobieta
Ten człowiek jest kobietą i nie jest mężczyzną
C=K*~M
Po odrzuceniu prawdy powstałej z negacji fałszu otrzymamy końcową odpowiedź 5-cio latka:
To jest kobieta


10.0 Operatory implikacji w świecie zdeterminowanym

Twierdzenie Sowy
W operatorach OR, AND, implikacji i równoważności znajomość rozwiązania determinuje definicję operatora AND.

Operatorami OR i AND zajęliśmy się wyżej.

Twierdzenie Sowy jest oczywistością, bo jak znamy w 100% rozwiązanie to składniki tego rozwiązania muszą być prawdziwe i połączone spójnikiem „i”

Zdanie:
Jeśli Jan nie był w Warszawie to na pewno nie zabił
~W=>~Z
… a jeśli Jan był w Warszawie ?
Prawo Kubusia:
~W=>~Z = W~>Z
Jeśli Jan był w Warszawie to mógł zamordować
W~>Z

Tego typu zdania są sensowne wyłącznie jeśli nie wiemy czy Jan jest mordercą.
Wtedy implikacjami w stylu jak wyżej dochodzimy prawdy.

Stwierdzamy: Jan nie był w Warszawie

Poprawne lingwistycznie zdanie jest wówczas takie:
Jan nie był w Warszawie i nie zamordował
J=>~W*~Z

Oczywiście sednem jest tu morderstwo, zatem zdanie 5-cio latka po końcowym uproszczeniu:
Jan nie jest mordercą
J=>~M

Kolejny przykład.
Zaistniały fakt:
Dziecko wybiegło na jezdnię i zabił je samochód
D=>W*ZS

Po fakcie nie ma sensu zdanie:
Jeśli wybiegniesz na jezdnię to może cię zabić samochód
W~>ZS

Załóżmy że jesteśmy światkami takiego wypadku.
Przyjeżdża policjant i pyta co się stało.

Oczywiście jedyne sensowne zdanie jest tu takie:
Dziecko nagle wybiegło na ulicę i potrącił je samochód.
albo
Samochód wpadł w poślizg i potrącił prawidłowo idące dziecko

Jakiekolwiek implikacje nie mają tu sensu, bo mamy tu do czynienia z determinizmem, doskonale wiemy co się stało.


10.1 Podstawowe analizy implikacji prostej i odwrotnej

Implikacja prosta

Przykład:
Jeśli zwierze jest psem to na pewno ma cztery łapy
P=>4L
Analiza takich implikacji gdzie w poprzedniku i następniku mamy tylko jeden parametr bez operatorów AND i OR jest banalna.

Analiza:
A.
Jeśli zwierze jest psem to na pewno ma cztery łapy
P=>4L=1 bo pies – twarda prawda, gwarancja matematyczna
stąd:
B.
Jeśli zwietrzę jest psem to na pewno nie ma czterech łap
P=>~4L=0 – bo wszystkie psy mają cztery łapy, twardy fałsz wynikły tylko i wyłącznie z A

… a jeśli zwierze nie jest psem ?
Prawo Kubusia:
P=>4L=~P~>~4L
C.
Jeśli zwierze nie jest psem to może nie mieć czterech łap
~P~>~4L=1 bo mrówka, miękka prawda, może zajść ale nie musi
LUB
D.
Jeśli zwierze nie jest psem to może mieć cztery łapy
~P~~>4L=1 bo słoń, miękka prawda, może zajść ale nie musi

W zdaniu D nie może zachodzić warunek konieczny ~>.
Dowód nie wprost.
Załóżmy, że w zdaniu D zachodzi warunek konieczny i zastosujmy prawo Kubusia:
D: ~P~>4L = B: P=>~4L=0
Prawa strona tożsamości jest twardym fałszem, zatem z lewej strony nie może być spełniony warunek konieczny ~>.

Zdanie D jest prawdziwe na mocy naturalnego spójnika „może”~~>, wystarczy jedna prawda, warunek konieczny tu nie zachodzi co zostało udowodnione.

Tabele zero-jedynkowa implikacji prostej otrzymamy kodując powyższe zdania dla punktu odniesienia A czyli:
P=1, ~P=0
4L=1, ~4L=0
Kod:

A: P=>4L=1    /1 1 =1
B: P=>~4L=0   /1 0 =0
… a jeśli to nie pies?
Prawo Kubusia:
P=>4L=~p~>~4L
C: ~P~>~4L=1  /0 0 =1
D: ~P~~>4L=1  /0 1 =1


Implikacja odwrotna

Przykład:
Jeśli zwierze ma cztery łapy to może być psem
4L~>P

Analiza matematyczna:
A.
Jeśli zwierze ma cztery łapy to może być psem
4L~>P=1 bo pies, miękka prawda, bo może wystąpić B
LUB
B.
Jeśli zwierze ma cztery łapy to może nie być psem
4L~~>~P=1 bo słoń, miękka prawda, bo może zajść A

… a jeśli zwierzę nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
czyli:
C.
Jeśli zwierze nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1 - twarda prawda, gwarancja matematyczna
stąd:
D.
Jeśli zwierzę nie ma czterech łap to na pewno => jest psem
~4L=>P=0 – twardy fałsz wynikły wyłącznie z C

Dla kodowania zgodnego ze zdaniem wypowiedzianym A otrzymamy tabelę zero-jedynkowa implikacji odwrotnej:
A: 4L~>P
4L=1, ~4L=0
P=1, ~P=0
Kod:

A: 4L~>P=1     /1 1 =1
B: 4L~~>~P=1   /1 0 =1
.. a jeśli nie ma czterech łap?
Prawo Kubusia:
4L~>P = ~4L=>~P
C: ~4L=>~P=1   /0 0 =1
D: ~4L=>P =0   /0 1 =0



10.2 Złożona implikacja prosta w świecie zdeterminowanym

Drodzy czytelnicy, czy zastanawialiście się kiedyś dlaczego w świecie zdeterminowanym wszyscy ludzie na ziemi używają jedynie słusznej formy np.

A.
Jeśli zwierze jest psem lub koniem to na pewno ma cztery łapy i nie ćwierka
P+K=>4L*~C

Przecież to zdanie możemy wyrazić aż w 64 różnych formach uwzględniając spójniki „i” oraz „lub” po każdej stronie znaku => !

Przykład formy wybranej losowo:
B.
Jeśli zwierzę jest psem lub nie jest koniem to na pewno ma cztery łapy lub ćwierka
P+~K=>4L+C

Dlaczego nawet dziecko 5-cio letnie nigdy nie wymówi B (lub podobnych) a zawsze wypowie to zdanie w jedynie słusznej formie A !

Matematyczną odpowiedź na to banalne pytanie daje algebra Kubusia.

Rozważmy to jedynie słuszne zdanie:
A.
Jeśli zwierze jest psem lub koniem to na pewno ma cztery łapy i nie ćwierka
P+K=>4L*~C

Definicja sumy logicznej:
p+q=p*q+p*~q+~p*q

Na mocy tej definicji rozpisujemy poprzednik:
Y=P+K = P*K+P*~K+~P*K

Oczywiście mamy tu człony:
A.
Zwierze jest psem i koniem = fałsz
P*K=0
B.
Zwierze jest psem i nie koniem
P*~K=P
Część wspólna zbiorów P i ~K w dziedzinie wszystkich zwierząt
C.
Zwierze nie jest psem i jest koniem
~P*K=K
Część wspólna zbiorów ~P i K w dziedzinie wszystkich zwierząt

Czyli mamy:
Y= P*K=0 +P*~K=P + ~P*K=K = P+K
Stąd jedynie słuszna wersja poprzednika (funkcja minimalna):
Jeśli zwierzę jest psem lub koniem to ….
Y=P+K
cnd

Z następnikiem nie mamy tu żadnych problemów bo spójnik „i” jest jednoznacznie określony jedną linią tabeli zero-jedynkowej.

Definicja iloczynu logicznego:
Iloczyn logiczny (spójnik „i”) n-zmiennych binarnych jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1.
Y=p*q
Y=1 <=> p=1 i q=1

Następnik w naszym jedynie słusznym zdaniu jest taki:
Zwierze ma cztery łapy i nie ćwierka
Y=4L*~C = 1*1=1
Oczywiście tu dowolne inne przeczenia będą fałszem:
4L*~C=1
4L*C=0
~4L*~C=0
~4L*C=0
Członów fałszywych dziecko 5-cio letnie nie wypowiada stąd jedynie słuszna forma następnika.

Rozważmy dwa przykładowe zdania z rozstrzygnięciem „dlaczego nikt tak nie mówi”.

1.
Jeśli zwierzę jest psem lub nie jest koniem to na pewno ma cztery łapy lub ćwierka
P+~K=>4L+C
Poprzednik:
P+~K = ~K – suma logiczna zbiorów P lub ~K w dziedzinie zwierząt
zatem równoważny i prawdziwy poprzednik brzmi:
Jeśli zwierzę jest nie jest koniem …
~K
Dokładnie to samo otrzymamy z równoważnej definicji sumy logicznej:
Y=p+q = p*q+p*~q+~p*q
Y=P+~K
Mamy:
P+~K:
P*~K=P – część wspólna zbiorów P i ~K to zbiór P
P*K=0 – zbiory rozłączne
~P*~K – iloczyn logiczny zbiorów
Czyli po minimalizacji mamy:
Y=P+~K = P+~P*~K = ~K
Dlaczego ?

[link widoczny dla zalogowanych]

W dziedzinie wszystkich zwierząt zbiór ~P i ~K to wszystkie zwierzęta z białymi wysepkami P i K.
Wysepka P znika nam na mocy sumy logicznej – zostaje wypełniona przez zbiór P:
P+~P*~K
Stąd zostaje nam zbiór końcowy ~K
CND

Następnik:
4L+C = 4L*C=0 lub 4L*~C=1 lub ~4L*C=0 = 4L*~C
Jak widzimy jedyny prawdziwy następnik w tym przypadku brzmi jak w zdaniu wzorcowym !

2A.
Jeśli zwierzę jest psem i nie jest koniem to ma cztery łapy i nie ćwierka
P*~K=>4L*~C
Poprzednik:
P*~K = P – wspólna cześć zbiorów P i ~K w dziedzinie zwierząt

Zatem zdanie równoważne:
2B.
Jeśli zwierzę jest psem to ma cztery łapy i nie ćwierka
P=>4L*~C
Oczywiście wszyscy normalni mając do wyboru 2A albo 2B wybiorą 2B. Zdanie 2A to zapewne nawet 5-cio latkowi do głowy nie przyjdzie.

Jak widzimy, zdefiniowaliśmy zdanie „jedynie słuszne” w obszarze lingwistyki.

Czas teraz na jego analizę zero-jedynkową, czyli rozpatrzenie wszystkich możliwych przeczeń po stronie poprzednika i następnika.

Zdanie do analizy zero-jedynkowej:
A.
Jeśli zwierze jest psem lub koniem to na pewno ma cztery łapy i nie ćwierka
p=>q =1
P+K=>4L*~C =1 bo pies lub koń – gwarancja matematyczna, istota implikacji !
Przekształcenie pomocnicze ~q dla p=>~q:
q=4L*~C
Negujemy zmienne i wymieniamy operatory:
~q=~4L+C
B.
Jeśli zwierze jest psem lub koniem to na pewno nie ma czterech łap lub ćwierka
p=>~q =0
P+K => ~4L+C =0
Dla ułatwienia tego typu implikacje możemy rozbić na dwie:
P=>~4L+C=0
LUB
K=>~4L+C=0
stąd wynik końcowy: 0

Jaś (lat 5):
… a jeśli zwierze nie jest psem i nie jest koniem ?
Przejście ze zdaniem A do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów:
~P*~K~>~4L+C
Oczywiście to jest prawo Kubusia:
p=>q = ~p~>~q
uzyskane metoda na skróty.
czyli:
C.
Jeśli zwierze nie jest psem i nie jest koniem to może nie mieć czterech łap lub ćwierkać
~p~>~q
~P*~K ~>~4L+C =1 bo kura, wąż, wróbelek
p+q=p*q+p*~q+~p*q – definicja
p+q=~4L+C
p*q=~4L*C=wróbelek
p*~q=~4L*~C=kura, waz …
~p*q=4L*C=0
LUB
D.
Jeśli zwierze nie jest psem i nie jest koniem to może mieć cztery łapy i nie ćwierkać
~p~~>q
~P*~K~~>4L*~C =1 bo słoń, hipopotam …


10.3 Złożona implikacja odwrotna w świecie zdeterminowanym

Uwaga:
Dla ułatwienia analizy wszędzie korzystamy z poniższej definicji sumy logicznej:
p+q = p*q+p*~q+~p*q

Odwróćmy zdanie z poprzedniego przykładu zmieniając parametr nie ćwierka (nie wróbelek) na nie miauczy (nie kot).
A.
Jeśli zwierze ma cztery łapy i nie miauczy to może być psem lub koniem
p~>q
4L*~M~>P+K =1 bo pies, koń (kot wykluczony !)
p+q=p*q+p*~q+~p*q - definicja
p+q=P+K
p*q=P*K=0
p*~q=P*~K=P – Pies =wspólna cześć zbiorów
~p*q=~P*K=K – Koń=wspólna cześć zbiorów

Przekształcenie pomocnicze ~q dla p~~>~q:
q=P+K
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów:
~q=~P*~K
czyli:
B.
Jeśli zwierzę ma cztery łapy i nie miauczy to może nie być psem i nie być koniem
p~~>~q
4L*~M~~>~P*~K =1 bo słoń, hipopotam… (kot wykluczony !)
1 0 =1

… a jeśli zwierze nie ma czterech łap lub miauczy ?
Przechodzimy z równaniem A do logiki ujemnej uzyskując prawo Kubusia metodą na skróty:
A.
4L*~M~>P+K
C.
~4L+M => ~P*~K
czyli:
C.
Jeśli zwierze nie ma czterech łap lub miauczy to na pewno => nie jest psem i nie jest koniem
~p=>~q
~4L+M=>~P*~K =1 bo kura, mrówka, kot (tu jest kot !) – gwarancja matematyczna
p+q=p*q+p*~q+~p*q - definicja
p+q=~4L+M
p*q=~4L*M=0
p*~q=~4L*~M=kura,mrowka …
~p*q=4L*M=kot
D.
Jeśli zwierze nie ma czterech łap lub miauczy to na pewno jest psem lub koniem
~p=>q
~4L+M=>P+K =0 bo pies lub koń wykluczony


11.0 Obietnice i groźby

Żaden matematyk nie zakwestionuje poniższej definicji obietnicy:
Obietnica = implikacja prosta => - to jest w każdym podręczniku matematyki do I klasy LO

To wystarczy, dalej w banalny sposób można udowodnić że:
Groźba = implikacji odwrotna ~>

Dowód na przykładzie …


11.1 Obietnica

Typowa obietnica:
A.
Jeśli będziesz grzeczny dostaniesz czekoladę
G=>C =1 – gwarancja matematyczna
Obietnica, zatem implikacja prosta, tu wszyscy się zgadzamy
gdzie:
=> - warunek wystarczający, spójnik „na pewno” miedzy p i q w całym obszarze logiki
Skoro to warunek wystarczający => to:
B.
Jeśli będziesz grzeczny to na pewno => nie dostaniesz czekolady
G=>~C =0
… a jak będę niegrzeczny ?
Prawo Kubusia:
G=>C = ~G~>~C
Mama:
C.
Jeśli będziesz niegrzeczny to nie dostaniesz czekolady
~G~>~C
W groźbach (zdanie C) spójnik „może” ~> jest z reguły pomijany. Nie ma to znaczenia gdyż spójnik ten jest gwarantowany przez absolutna świętość algebry Boole’a, prawo Kubusia.

Z prawa Kubusia wynika tu coś fundamentalnego:
Wszelkie groźby (zdanie C) musimy kodować operatorem implikacji odwrotnej, inaczej algebra Kubusia (i Boole’a!) leży w gruzach.

Matematyczne znaczenie zdania C jest oczywiście takie:
C.
Jeśli będziesz niegrzeczny to możesz ~> nie dostać czekolady
~G~>~C =1
LUB
D.
Jeśli będziesz niegrzeczny to możesz ~~> dostać czekoladę
~G~~>C =1 – akt miłości!
gdzie:
~> - warunek konieczny
~~> - naturalne "może", wystarczy jedna prawda.

Oczywiście z powyższej analizy matematycznej wynika, że wszelkie groźby muszą być kodowane implikacją odwrotną:
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L - implikacja odwrotna bo groźba

Z powyższego mamy definicję obietnicy i groźby …

Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N =1 - twarda prawda
Implikacja prosta bo dobrowolnych obietnic musimy dotrzymywać
Spełnienie warunku nagrody jest warunkiem wystarczającym dla otrzymania nagrody
Prawo Kubusia:
W=>N = ~W~>~N
Gwarancją w implikacji jest zawsze warunek wystarczający =>.
W=>N
Jeśli spełnię warunek nagrody to na pewno => dostanę nagrodę z powodu że spełniłem warunek nagrody … poza tym wszystko może się zdarzyć.

W obietnicy nadawca ma nadzieję (marzenie), że odbiorca spełni warunek nagrody i będzie mógł wręczyć nagrodę. Jeśli odbiorca nie spełni warunku nagrody to nadawca może dać nagrodę lub nie zgodnie ze swoim „widzi mi się”, czyli wolną wolą.
Po stronie odbiorcy występuje nadzieja (marzenie), że nawet jeśli nie spełni warunku nagrody to może otrzymać nagrodę (akt miłości). Odbiorca może zwolnić nadawcę z obietnicy np. w przypadkach losowych.


11.2 Groźba

Definicja groźby:
Jeśli dowolny warunek to kara
W~>K =1
Implikacja odwrotna na mocy definicji!
Nadawca może ukarać, ale nie musi.
Spełnienie warunku kary jest warunkiem koniecznym ukarania z powodu spełnienia warunku kary. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.

Gwarancja w groźbie wynika z prawa Kubusia:
W~>K = ~W => ~K
Stąd gwarancja:
~W => ~K
Jeśli nie spełnię warunku kary to na pewno => nie zostanę ukarany z powodu nie spełnienia warunku kary. Poza tym wszystko może sie zdarzyć.

W groźbie nadawca ma nadzieję (marzenie), że odbiorca nie spełni warunku kary i nie będzie musiał karać. Jeśli odbiorca spełni warunek kary to nadawca może wykonać karę lub ją darować zgodnie ze swoim „widzi mi się”, czyli wolną wolą.
Po stronie odbiorcy również występuje nadzieja (marzenie), że nawet jeśli spełni warunek kary to nadawca nie wykona kary (akt łaski). W groźbie decyzję o darowaniu kary podejmuje wyłącznie nadawca, odbiorca nie ma tu nic do powiedzenia.

Przykład:
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L - implikacja odwrotna bo groźba
Brudne spodnie są warunkiem koniecznym lania z powodu brudnych spodni. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.

W groźbach naturalny spójnik implikacji odwrotnej „może” ~> jest z reguły pomijany bo osłabiałby groźbę. Nie prowadzi to do niejednoznaczności, gdyż definicje groźby i obietnicy są bardzo proste i precyzyjne.

Analiza:
A:
Jeśli ubrudzisz spodnie to dostaniesz lanie
B~>L =1
LUB
B:
Jeśli ubrudzisz spodnie to nie dostaniesz lania
B ~~> ~L =1 - prawo do darowania kary (akt łaski)
Zdanie prawdziwe na mocy naturalnego spójnika „może” ~~>.
Nadawca ma prawo do darowania dowolnej kary (akt łaski) zależnej od niego!
Przykład:
JPII i Ali Agca

… a jeśli nie ubrudzę spodni ?
B~>L = ~B => ~L - prawo Kubusia
czyli:
C:
Jeśli nie ubrudzisz spodni to na pewno => nie dostaniesz lania (z powodu że nie ubrudziłeś spodni!)
~B => ~L =1 - twarda prawda, gwarancja matematyczna
Z punktu odniesienia zdania C mamy do czynienia z implikacją prostą.
Jeśli nie ubrudzisz spodni to na pewno => nie dostaniesz lania z powodu czystych spodni. Poza tym wszystko może się zdarzyć. Tylko tyle i aż tyle gwarantuje operator implikacji prostej.
stąd:
D:
Jeśli nie ubrudzisz spodni to na pewno => dostaniesz lanie
~B => L =0 - twardy fałsz, zakaz karania niewinnego z powodu czystych spodni

Jedyne sensowne przejście z operatora implikacji odwrotnej do AND i OR to odpowiedź na pytanie dziecka „kiedy wystąpi kłamstwo”:

Jeśli ubrudzisz spodnie dostaniesz lanie
Y=B~>L
Jaś:
… tata, a kiedy skłamiesz ?

Y=B~>L = B+~L = ~(~B*L) - dotrzymam słowa
Negujemy dwustronnie:
~Y=~(B~>L) = ~B*L - skłamię

Skłamię (~Y=1), jeśli przyjdziesz w czystych spodniach (~B) i dostaniesz lanie (z powodu czystych spodni !)
~Y=~B*L
Jaś:
… a czy może się zdarzyć że przyjdę w czystych spodniach i dostanę lanie ?
Y=~(~Y) - prawo podwójnego przeczenia, stąd:
Y=~(~B*L)
Nie może się zdarzyć że przyjdziesz w czystych spodniach (~B) i dostaniesz lanie (z powodu czystych spodni)
Y=~(~B*L)
Zauważmy, że ostatnie pytanie Jasia jest mało prawdopodobne bo odpowiedź dostał wcześniej.

W obietnicach i groźbach bardzo dobrze widać sens logiki dodatniej i ujemnej w operatorach implikacji prostej i odwrotnej.

Definicja logiki dodatniej i ujemnej w operatorach implikacji prostej i odwrotnej:
Implikacja wypowiedziana jest w logice dodatniej jeśli po stronie q nie występuje negacja, inaczej mamy do czynienia z logiką ujemną.

Obietnica:
W=>N = ~W~>~N - prawo zamiany obietnicy => na równoważną groźbę ~>
Obietnica => w logice dodatniej (N) jest równoważna groźbie ~> w logice ujemnej (~N)

Groźba:
W~>K = ~W=>~K - prawo zamiany groźby ~> na równoważną obietnicę =>
Groźba ~> w logice dodatniej (K) jest równoważna obietnicy => w logice ujemnej (~K)

Piękna jest też następująca interpretacja obietnicy i groźby.
Kod:

p q p~>q p<=q
1 1  =1   =1
1 0  =1   =1
0 0  =1   =1
0 1  =0   =0

gdzie:
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Z tabeli widzimy że:
~> = <= - pod warunkiem że symbol <= będziemy czytać przeciwnie do strzałki jako spójnik „może” z warunkiem koniecznym (operator implikacji odwrotnej)

Obietnica:
W=>N - ja tego chcę, biegnę do nagrody
=> czytane zgodnie ze strzałką jako spójnik „musi” z warunkiem wystarczającym
Groźba:
W~>K = W<=K - ja tego nie chcę, uciekam od kary
gdzie:
<= - czytane przeciwnie do strzałki jako spójnik „może” z warunkiem koniecznym

Odróżnianie nagrody od kary to fundament wszelkiego życia. Zwierzątka które tego nie odróżniają, czyli wszystko co się rusza traktują jako nagrodę (ja tego chcę) skazane są na zagładę.

W Australii żyje sobie żółw błotny który na języku ma wyrostek imitujący żywego robaka, ryba która nabierze się na ten podstęp musi zginąć.


11.3 Analiza złożonej obietnicy

Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N

Definicja groźby:
Jeśli dowolny warunek to kara
W~>K

A.
Jeśli posprzątasz pokój i nie będziesz bił siostry to dostaniesz czekoladę i obejrzysz bajkę
p=>q
P*~B=>C*B=1
B.
p=>~q
~q=~(C*B)=~C+~B
Jeśli posprzątasz pokój i nie będziesz bił siostry to nie dostaniesz czekolady lub nie obejrzysz bajki
P*~B=>~C+~B =0
Rozpisujemy następnik przez definicje spójnika „lub”:
p+q = p*q+p*~q+~p*q
~C+~B
Możliwe kary
A: ~C*~B=0 – to jest 100% kary
B: ~C*B =0 – tu tez jest element kary
C: C*~B=0 – tu również jest kara
Zatem suma logiczna:
A+B+C = 0+0+0=0 – zakaz wykonywania jakiejkolwiek kary w przypadku spełnienia warunku nagrody
… a jeśli nie spełnię warunku nagrody ?
Prawo Kubusia:
p=>q = ~p~>~q
Czyli negujemy zmienne w równaniu A i odwracamy operatory – prawo Kubusia na skróty.
~P+B~>~C+~B
Oczywiście w tym przypadku mamy do czynienia z groźbą i definicją groźby.
czyli:
C.
Jeśli nie posprzątasz pokoju lub będziesz bił siostrę to możesz nie dostać czekolady lub nie obejrzeć bajki
~p~>~q
~P+B~>~C+~B=1
Warunki ukarania:
D: ~P*B=1 – warunek kary spełniony
E: ~P*~B=1 – warunek ukarania spełniony
F: P*B=1 – warunek ukarania spełniony
Równanie kary:
D+E+F = x+x+x=x
Jeśli dowolny warunek spełniony to mama ma 100% wolnej woli.
Zdanie C pozwala na częściowe darowanie kary, natomiast łącznie ze zdaniem D kara może być darowana w 100% !
LUB
D.
Jeśli nie posprzątasz pokoju lub będziesz bił siostrę to dostaniesz czekoladę i obejrzysz bajkę
~p~~>q=1
~P+B~~>C*B=1
W tej linii jest prawo do darowania kary w 100%


11.4 Analiza złożonej groźby

Definicja groźby:
Jeśli dowolny warunek to kara
W~>K

Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N

A.
Jeśli nie posprzątasz pokoju lub będziesz bił siostrę to nie dostaniesz czekolady i nie obejrzysz bajki
p~>q
~P+B~>~C*~B
Przekształcenie pomocnicze w celu uzyskania ~q dla:
p~~>~q
~q:
~(~C*~B)= C+B
stąd:
B.
Jeśli nie posprzątasz pokoju lub będziesz bił siostrę to dostaniesz czekoladę lub obejrzysz bajkę
p~~>~q
~P+B~~>C+B
Rozwijamy następnik na mocy definicji spójnika „lub”
p+q = p*q+~p*q+p*~q
C+B:
C*B=1 – dostaniesz czekoladę i obejrzysz bajkę, 100% darowanie kary
~C*B=1 – nie dostaniesz czekolady i obejrzysz bajkę, częściowe darowanie kary
C*~B=1 = dostaniesz czekoladę i nie obejrzysz bajki, częściowe darowanie kary
Mamy tu akt łaski, mama może darować karę całkowicie lub częściowo, cokolwiek nie zrobi to nie ma szans na zostanie kłamcą, czyli ma 100% wolnej woli.

… a jeśli posprzątam pokój i nie będę bił siostry ?
Mamy równanie A:
p~>q
~P+B~>~C*~B
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów, czyli prawo Kubusia uzyskane metoda na skróty:
~p=>~q
P*~B=>C+B
stąd:
C.
Jeśli posprzątasz pokój i nie będziesz bił siostry to na pewno => dostaniesz czekoladę lub obejrzysz bajkę
~P=>~q
P*~B=>C+B
Rozwinięcie sumy logicznej C+B mamy wyżej.
Oczywiście tu nie może być mowy o najmniejszej nawet karze bowiem warunek groźby nie został spełniony.
Mamy zatem:
C*B=1 – dostaniesz czekoladę i obejrzysz bajkę, 100% darowanie kary
~C*B=0 – nie dostaniesz czekolady i obejrzysz bajkę, bo zakaz karania
C*~B=0 = dostaniesz czekoladę i nie obejrzysz bajki, bo zakaz karania
W tym przypadku mama nie ma prawa na wykonanie choćby najmniejszej kary, zatem musi dać czekoladę i pozwolić na obejrzenie bajki.
stąd:
D.
Jeśli posprzątasz pokój i nie będziesz bił siostry to na pewno => nie dostaniesz czekolady i nie obejrzysz bajki
~p=>q=0
P*~B=>~C*~B=0
Całkowity zakaz karania, bowiem warunek kary nie został spełniony


11.5 Obietnice i groźby w ujęciu filozoficznym

Zdanie wypowiedziane:
Jeśli zdasz egzamin dostaniesz komputer
E=>K
Implikacja prosta bo dobrowolnych obietnic musimy dotrzymywać
Gwarancja w implikacji prostej:
E=>K
Jeśli zdasz egzamin to na pewno => dostaniesz komputer z powodu że zdałeś egzamin, poza tym wszystko może się zdarzyć - tylko tyle i aż tyle gwarantuje operator implikacji prostej w obietnicy.

Analiza matematyczna:
A.
Jeśli zdasz egzamin to na pewno => dostaniesz komputer
E=>K =1
stąd:
B.
Jeśli zdasz egzamin to na pewno => nie dostaniesz komputera
E=>~K =0 - dobrowolnych obietnic musimy dotrzymywać
… a jeśli nie zdam egzaminu ?
Prawo Kubusia:
E=>K = ~E~>~K
czyli:
C.
Jeśli nie zdasz egzaminu to możesz ~> nie dostać komputera
~E~>~K =1
LUB
D.
Jeśli nie zdasz egzaminu to możesz ~~> dostać komputer
~E~~>K =1 - akt miłości

Zdanie C to ewidentna groźba. Intencją wypowiadającego jest, aby groźba była groźbą, dlatego praktycznie zawsze pomijany jest spójnik „może”.

Zdanie C przybierze postać.
C.
Jeśli nie zdasz egzaminu to nie dostaniesz komputera
~E~>~K =1
Nie zdanie egzaminu jest warunkiem koniecznym nie dostania komputera, zatem implikacja odwrotna. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.

Oczywiście na mocy definicji groźby:
Jeśli dowolny warunek to kara
W~>K
zatem powyższą groźbę musimy kodować operatorem implikacji odwrotnej ~>:
~E~>~K

Matematyczna wolna wola
Matematyczna wolna wola to operator implikacji odwrotnej.

W przypadku nie zdania egzaminu, nadawca może nie dać komputera (C) lub dać komputer (D) co zależy tylko i wyłącznie od jego „widzi mi się” czyli wolnej woli.
W skrajnym przypadku może wyjąć monetę i rzucać:
orzełek - dam komputer
reszka - nie dam komputera
… i nie ma szans na zostanie kłamcą.
„Rzucanie monetą” jest matematyczną wolną wolą, ale nie jest wolną wolą człowieka !
Człowiek rzucający monetą staje się maszyną, wobec której nie można mówić o „wolnej woli”.

Wolna wola człowieka:
Wolna wola człowieka to świadoma decyzja negatywna lub pozytywna, nadawca powinien umieć uzasadnić decyzję.

Decyzja negatywna:
Nie zdałeś egzaminu, nie dostaniesz komputera
oczywiście domyślne jest tu „z powodu że nie zdałeś egzaminu”, nadawca może to rozwinąć np. bo kompletnie się nie uczyłeś itp.

Decyzja pozytywna:
Nie zdałeś egzaminu, dostajesz komputer, bo cie kocham, bo widziałem że się uczyłeś ale miałeś pecha itp.

Oczywiście matematycznie zabronione jest tu uzasadnienie zależne, identyczne jak warunek czyli:
Nie zdałeś egzaminu, dostajesz komputer bo nie zdałeś egzaminu
Matematyczny dowód pkt. 12.1

Prawdopodobieństwo zajścia „aktu miłości” w obietnicy:
1.
Zauważmy, że nadawca dobrowolnie obiecuje nagrodę, czyli chce tą nagrodę dać. Jeśli zobaczy że odbiorca starał się ale mu nie wyszło to z reguły i tak wręczy nagrodę (akt miłości).
2.
Obietnice „szyte są na miarę” odbiorcy, czyli nadawca nie daje obietnic gdzie spełnienie warunku nagrody jest niemożliwe lub bardzo mało prawdopodobne. Stąd najczęściej odbiorca spełnia warunek nagrody, nadawca wręcza nagrodę … i wszyscy są szczęśliwi.

Oczywiście obietnice to przyszłość której nie znamy, jednak jeśli obietnica wypowiedziana jest między przyjaciółmi, znajomymi czy nawet miedzy osobami obcymi to z reguły jest dotrzymywana. Czyli prawdopodobieństwo iż nagroda znajdzie się u nadawcy jest tu bardzo wysokie, myślę że na poziomie 90% lub wyższym.

Odrębnym zagadnieniem jest składanie fałszywych obietnic wobec wrogów których chcemy zniszczyć, tu podstęp i fałsz jest na porządku dziennym w myśl zasady, wszystkie chwyty dozwolone byleby zniszczyć wroga. Zauważmy jednak, że nasz wróg dał się złapać w pułapkę dzięki temu że spodziewa się nagrody, czyli również doskonale zna symboliczna algebrę Kubusia.

Każde żywe stworzenie, chce mieć jak najmniej wrogów i jak najwięcej przyjaciół, zatem w powodzi wypowiedzianych obietnic te fałszywe stanowią margines. Zauważmy, że stworzenia żywe żyją w grupach w ramach swojego gatunku. Tu również działa algebra Kubusia, człowiek nie jest tu żadnym wyjątkiem.

Zauważmy, że jeśli przyjmiemy „akt miłości” i „akt łaski” za dobro i wykluczymy linie fałszywe w groźbach i obietnicach to otrzymamy taki wynik:
Dobro-Zło = 4:2
Zatem matematycznie nasz Wszechświat ustawiony jest na dobro.

Weźmy na koniec typowa groźbę.

Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L
Gwarancja w implikacji odwrotnej wynika z prawa Kubusia:
B~>L = ~B=>~L
czyli:
Jeśli przyjdziesz w czystych spodniach to na pewno => nie dostaniesz lania
~B=>~L
... z powodu czystych spodni - tylko tyle i aż tyle gwarantuje operator implikacji odwrotnej.

Równanie jest absolutnie genialne:
B~>L = ~B=>~L
Po prawej stronie mamy 100% determinizm, dlatego to jest matematyka ścisła.

Po lewej stronie mamy matematyczna wolną wolę człowieka, czyli jeśli syn przyjdzie w brudnych spodniach to nadawca może go zabić albo darować lanie (gwarancja wolnej woli) ... i nie ma szans na zostanie kłamcą. Tożsamość to tożsamość, z matematyką się nie dyskutuje.

Determinizm filozoficzny i fizyczny

Determinizm w ujęciu filozoficznym i można sprowadzić do jednego zdania:
Jeśli ktokolwiek zna moje myśli z wyprzedzeniem to moja wolna wola leży w gruzach, mój Wszechświat jest zdeterminowany.

Determinizm w ujęciu fizycznym opisuje genialna implikacja. W jednej połówce implikacji zarówno prostej jak i odwrotnej mamy 100% determinizm (=>), zaś w drugiej "rzucania monetą” ( ~>)

Oczywiście determinizm fizyczny to również równoważność p<=>q, ale ta występuje głównie w matematyce, w świecie rzeczywistym króluje implikacja.


11.6 Rodzaje obietnic

1.
Obietnica z natychmiastową wykonalnością:
Jeśli zdasz egzamin dostaniesz komputer
E=>K
… a jak nie zdam egzaminu.
Prawo Kubusia:
E=>K = ~E~>~K
czyli jeśli syn nie zda egzaminu to mogę mu tego komputera nie kupić lub kupić i nie mam szans na zostanie kłamcą.
Po egzaminie następuje rozstrzygnięcie

2.
Obietnica z odroczoną wykonalnością:
Kto przyjdzie jutro dostanie gotowca
J=>G
… a jak przyjdę pojutrze ?
J=>G = ~J~>~G
Oczywiście jak ktoś przyjdzie później, byle przed egzaminem to też może dostać gotowca ale nie musi. Po egzaminie ta obietnica traci sens.

3.
Obietnica w której spełnienie warunku obietnicy jest bardzo mało prawdopodobne:
Jeśli wygram milion w TOTKA to kupię ci samochód
W=>S
… a jak nie wygram w TOTKA ?
Prawo Kubusia:
W=>S = ~W~>~S
Jeśli nie wygram w TOTKA to mogę ci nie kupić samochodu lub kupić i nie mam szans na zostanie kłamcą.


12.0 Obietnice i groźby w równaniach matematycznych

Równoważną do analizy zero-jedynkowej gróźb i obietnic jak wyżej, jest ich analiza przy pomocy równań matematycznych.


12.1 Obietnica w równaniach matematycznych

Zastosujmy świętą zasadę algebry Boole’a „Jak się mówi tak się pisze” doskonale znaną wszystkim dobrym logikom praktykom, ci od cyfrowych układów logicznych..

Definicja obietnicy:
Jeśli dowolny warunek to nagroda

Zasada „Jak się mówi tak się pisze”:
Dostanę nagrodę (N) gdy spełnię warunek nagrody (W) lub gdy nadawca zdecyduje o daniu nagrody.

Wprowadźmy zmienną uznaniową nadawcy:
U=1 – dam nagrodę
U=0 – nie dam nagrody

Równanie obietnicy:
N=W+U

Gdzie:
N=1 – mam nagrodę
N=0 – nie mam nagrody
W=1 – warunek nagrody spełniony
W=0 – warunek nagrody nie spełniony

Zmienna uznaniowa nadawcy:
U=1 – dam nagrodę
U=0 – nie dam nagrody

Analiza równania obietnicy.

A.
W=1 - odbiorca spełnił warunek nagrody.

Równanie obietnicy przybierze wówczas postać:
N = 1+U = 1 – muszę dostać nagrodę.
W przypadku gdy odbiorca spełni warunek nagrody nadawca nie ma wyjścia i musi dać nagrodę, inaczej jest kłamcą. Zauważmy, że nikt nie zmuszał nadawcy do obiecania czegokolwiek, że nadawca obiecał nagrodę z własnej woli, że chce dać nagrodę. Nie ma tu zatem mowy o jakimkolwiek ograniczeniu wolnej woli nadawcy.

B.
W=0 – warunek nagrody nie spełniony

Równanie obietnicy przybiera postać:
N=W+U=0+U=U
Wszystko w rękach nadawcy który podejmuje decyzję o daniu nagrody zgodnie ze swoją wolną wolą, niczym nie ograniczoną.
U=1 – dam nagrodę
U=0 – nie dam nagrody

Przy niespełnionym warunku nagrody (W=0) nadawca może zrobić co mu się podoba i nie zostaje kłamcą. Większość nadawców tak czy siak da nagrodę pod byle pretekstem niezależnym (U=1 - akt miłości), ale nie musi tego robić !

W tym przypadku nadawca może wszystko z maleńkim wyjątkiem:
Nie spełniłeś warunku nagrody (W=0) dostajesz nagrodę, bo nie spełniłeś warunku nagrody (U=W=0)

Równanie obietnicy przybierze tu postać:
N = W+U = 0+0 =0
Zakaz wręczenia nagrody z uzasadnieniem zależnym, czyli z powodu nie spełnienia warunku nagrody (W=0).

Nikt nie może robić z człowieka idioty, przede wszystkim matematyka.

Przykład:
Jeśli zdasz egzamin dostaniesz komputer
E=>K

Równanie obietnicy:
K = W+U

Jeśli egzamin zdany (W=1) to:
K=1+U =1 - gwarancja otrzymania komputera.
Zmienna uznaniowa nadawcy jest tu bez znaczenia.

Jeśli egzamin nie zdany (W=0) to:
K=W+U = 0+U =U
Wszystko w rękach nadawcy:
U=1 - dam komputer
U=0 - nie dam komputera

Akt miłości nie zaszedł:
U=0
Nie zdałeś egzaminu (W=0), nie dostajesz komputera ... bo kompletnie się nie uczyłeś (U=0)
Równanie obietnicy:
K=W+U = 0+0 =0 - nie mam komputera

Akt miłości zaszedł:
U=1
Nie zdałeś egzaminu (W=0), dostajesz komputer ... bo widziałem że się starałeś ale miałeś pecha, bo cię kocham, bo tak czy siak zamierzałem kupić ci komputer itp. (U=1 dowolne uzasadnienie niezależne)
Równanie obietnicy:
N=W+U=0+1=1 – mam komputer dzięki dobremu sercu nadawcy (akt miłości)

Nadawca może wręczyć nagrodę pod byle pretekstem, ale nie może wręczyć nagrody z uzasadnieniem zależnym identycznym jak warunek nagrody.

Nie zdałeś egzaminu (W=0), dostajesz komputer ... bo nie zdałeś egzaminu (U=W=0).

Równanie obietnicy:
N=W+U=0+0=0 – zakaz wręczania nagrody z uzasadnieniem zależnym, czyli z powodu „nie zdania egzaminu” (W=U=0)

Nikt nie może robić z człowieka idioty, przede wszystkim matematyka.


12.2 Groźba w równaniach matematycznych

Definicja groźby:
Jeśli dowolny warunek to kara

Zasada „Jak się mówi tak się pisze”:
Zostanę ukarany (K) gdy spełnię warunek kary (W) i nadawca zdecyduje o ukaraniu (U).

W groźbie nadawca może skorzystać z aktu łaski ale nie musi tego robić. Przyjmijmy zmienna uznaniową U, którą nadawca może ustawić na dowolną wartość.

Matematyczne równanie groźby:
K=W*U

Gdzie:
K=1 – zostanę ukarany
K=0 – nie zostanę ukarany
W=1 – warunek kary spełniony
W=0 – warunek kary nie spełniony

Nadawca może ustawić zmienną uznaniową na dowolną wartość:
U=1 – ukarać
U=0 – nie karać (akt łaski)

Akt łaski w groźbie zajdzie wtedy, gdy odbiorca spełni warunek kary zaś nadawca odstąpi od wykonania kary (U=0 - akt łaski).

Analiza równania groźby.
K=W*U

A.
W=0 – warunek kary nie spełniony

Równanie groźby przybierze wówczas postać:
K=W*U=0*U=0 – zakaz karanie jeśli warunek kary nie zostanie spełniony.

Zauważmy, że nadawca nie ma tu nic do gadania. Może sobie ustawiać swoją zmienną długo i namiętnie na U=1 (karać) ... a i tak ma zakaz karania z powodu nie spełnienia warunku kary.

B.
W=1 – warunek kary spełniony

Równanie groźby przybiera postać:
K=W*U=1*U=U

Wszystko w rękach nadawcy który może zrobić co mu się podoba wedle wolnej woli:
U=1 – karać
U=0 – nie karać

Przykład:
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L

Ubrudziłeś spodnie (W=1), nie dostaniesz lania ... bo samochód cię ochlapał, bo dziś mam dobry humor, bo cię kocham itp. (U=0 - dowolne uzasadnienie niezależne)

K=W*U=1*0=0 - nie zostałem ukarany, bo nadawca zastosował akt łaski

Zauważmy, że nadawca może robić co mu się podoba z małym wyjątkiem, nie może darować kary z uzasadnieniem zależnym identycznym jak warunek kary.

Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L
Ubrudziłeś spodnie (W=1), nie dostajesz lania, bo ubrudziłeś spodnie (U=W=1).

Równanie groźby:
K=W*U=1*1=1 – kara musi być wykonana, zakaz darowania kary z uzasadnieniem zależnym

Nikt nie może robić z człowieka idioty, przede wszystkim matematyka.

Koniec 2011-11-30
Powrót do góry
Zobacz profil autora
Wyświetl posty z ostatnich:   
Napisz nowy temat   Odpowiedz do tematu    Forum ŚFiNiA Strona Główna -> Metodologia / Forum Kubusia Wszystkie czasy w strefie CET (Europa)
Strona 1 z 1

 
Skocz do:  
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach

fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
Regulamin