|
ŚFiNiA ŚFiNiA - Światopoglądowe, Filozoficzne, Naukowe i Artystyczne forum - bez cenzury, regulamin promuje racjonalną i rzeczową dyskusję i ułatwia ucinanie demagogii. Forum założone przez Wuja Zbója.
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35963
Przeczytał: 15 tematów
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Pią 13:50, 15 Kwi 2011 Temat postu: Algebra Kubusia - matematyka przedszkolaków beta 1.0 |
|
|
Wersja robocza – premiera na Wielkanoc 2011
Uwagi mile widziane tu lub na ateiście.pl
Zapowiadana nowa wersja wkrótce - za opóźnienie przepraszam
… wszystko co chcecie, żeby ludzie wam czynili, wy też im podobnie czyńcie …
Ewangelia Mateusza 7:12
[link widoczny dla zalogowanych]
Algebra Kubusia
Matematyka przedszkolaków
Autor: Kubuś - wirtualny Internetowy Miś
Naszym dzieciom dedykuję
Podręcznik w oryginale:
Algebra Kubusia – matematyka przedszkolaków
Zastosowanie algebry Kubusia:
Algebra Kubusia w służbie lingwistyki
W pracach nad podręcznikiem bezcennej pomocy udzielili Kubusiowi przyjaciele:
Barah (sfinia), Barycki (śfinia), Emde (sfinia), Fizyk (ateista.pl), Gavrila_Ardalionovitch (ateista.pl), HeHe (ateista.pl), Idiota (ateista.pl), Irbisol (sfinia), Jeremiasz Szary (sfinia), Krowa (śfinia), Makaron czterojajeczny (sfinia), Macjan (sfinia), Miki (sfinia), NoBody (ateista.pl), Paloma (ateista.pl), Rafał3006 (sfinia), Rexerex (ateista.pl), Rogal (matematyka.pl), Sogors (ateista.pl), Słupek (ateista.pl), tomektomek (ateista.pl), Uczy (wolny), Volrath (sfinia), Windziarz (ateista.pl), WujZbój (sfinia), Wyobraźnia (ateista.pl), zbigniewmiller (sfinia) i inni
Wielkie dzięki, Kubuś !
Szczególne podziękowania Wujowi Zbójowi za jego nieskończoną cierpliwość w dyskusjach z Kubusiem, Volrathowi za decydującą o wszystkim dyskusję, Fizykowi, Windziarzowi i Sogorsowi za fantastyczną dyskusję na ateiście.pl oraz Palomie za jedno zdanie, dzięki któremu Kubuś postawił kropkę nad „i”.
Kim jest Kubuś ?
Kubuś - wirtualny Internetowy Miś, wysłannik obcej cywilizacji, którego zadaniem było przekazanie ludziom tajemnicy implikacji.
Spis treści:
1.0 Notacja
1.1 Matematyczna precyzja
1.2 Istota algebry Kubusia w trzech definicjach
1.3 Operatory OR i AND w definicjach operatorowych
1.4 Implikacja w definicjach operatorowych
1.5 Równoważność w definicji operatorowej
1.6 Algebra Kubusia i kwantyfikatory
2.0 Spójniki OR i AND
2.1 Definicja operatora OR
2.2 Definicja operatora AND
2.3 Gród krasnoludka Orandka
2.4 Gród krasnoludka Andorka
3.0 Implikacja i równoważność w języku potocznym
3.1 Spójniki „może ~>” i „musi =>”
3.2 Twierdzenie ŚFINII, spójnik „może” ~~>
3.3 Rozstrzygnięcia o implikacji odwrotnej
3.4 Rozstrzygnięcia o implikacji prostej
3.5 Rozstrzygnięcia o równoważności
4.0 Implikacja w ujęciu matematycznym
4.1 Zero-jedynkowe i bramkowe definicje implikacji
4.2 Spójnik „musi” => między p i q, warunek wystarczający
4.3 Spójniki „może” ~> i „może”~~>
4.4 Prawa Kubusia na poziomie spójników logicznych
4.5 Definicja operatora implikacji odwrotnej ~>
4.6 Pałac księżniczki implikacji odwrotnej
4.7 Definicja operatora implikacji prostej =>
4.8 Pałac księżniczki implikacji prostej
5.0 Definicja równoważności <=>
5.1 Zamek księcia równoważności
5.3 Metody dowodzenia twierdzeń matematycznych
5.4 Znaczenie zdania „Jeśli…to…” w logice
6.0 Fundamenty algebry Kubusia
6.1 Aksjomatyczne definicje operatorów logicznych
6.2 Abstrakcyjny model operatora logicznego
6.3 Operatory logiczne FILL i NOP
6.4 Operatory P i Q
6.5 operatory negacji NP i NQ
7.0 Dowody formalne
7.1 Podstawowe prawa algebry Boole’a
7.2 Dowody formalne praw de’Morgana
7.3 Dowód formalny praw Kubusia
7.4 Prawo braku przemienności argumentów w implikacji
7.5 Twierdzenie Prosiaczka
7.6 Związek operatorów OR i AND z operatorami implikacji
8.0 Algebra Kubusia w zbiorach
8.1 Podstawowe definicje z teorii zbiorów w algebrze Kubusia
8.2 Implikacja prosta w zbiorach
8.3 implikacja odwrotna w zbiorach
8.4 Równoważność w zbiorach
8.5 Naturalny spójnik „może’ ~~> w zbiorach
9.0 Algebra Kubusia w służbie lingwistyki
9.1 Obietnica
9.2 Groźba
Wstęp.
Algebra Kubusia to matematyczny opis naturalnego języka mówionego, niezależny od języka czyli działa zarówno w Chińskim jak i Polskim. W technice implikacja nigdy nie była i nigdy nie będzie wykorzystywana ze względu na 100% przypadkowość w każdej połówce definicji implikacji, czyli np. "wolną wolę” człowieka - z tego też względu nie da sie matematycznie przewidzieć zachowań jakiejkolwiek istoty żywej.
Algebra Kubusia gwarantuje "wolną wolę" w naszym punkcie odniesienia, z punktu odniesienia Boga nasz Wszechświat może być częściowo lub totalnie zdeterminowany, ale o tym nigdy się nie dowiemy, chyba że po śmierci. Algebra Kubusia nie jest żadnym dowodem na istnienie lub nie istnienie Boga, czy też na istnienie lub nie istnienie wolnej woli w sensie absolutnym.
Algebrę Kubusia można porównać do koncepcji Wielkiego Wybuchu, przy czym jej sprawdzalność jest banalna, po pierwsze działa, a po drugie jej poprawność można łatwo udowodnić w laboratorium techniki cyfrowej. Algebra Kubusia to matematyka naszego Wszechświata, działa zarówno w świecie martwym jak i żywym.
Algebra Kubusia to wywrócenie aktualnej logiki matematycznej do góry nogami i to będzie jej największe osiągnięcie, na pewno zmieni się też postrzeganie naszego Wszechświata w sensie filozoficznym.
W naszym Wszechświecie:
Logika Boga = logika człowieka = algebra Kubusia
… inaczej wszystko jest bez sensu.
[link widoczny dla zalogowanych]
Paloma napisał: | Uff, przeczytałam.
Czy w czwartej lub piątej ramce od dołu nie ma błędu? |
Jak wytłumaczyć kobiecie że wszystko jest w porządku ?
To jedno jedyne zdanie wywołało burzę w małym rozumku Kubusia, dzięki niemu powstał ten podręcznik.
Myślę, że nikt z czytelników nie ma ochoty na oglądanie schematu połączeń między 100 mld neuronów w naszym mózgu. Nieporównywalnie ciekawszy jest fundament matematyczny wszelkich jego poczynań.
Mało kto wie, że w naszym mózgu pracują najprawdziwsze krasnoludki: Orandek i Andorek, księżniczka Implikacji Prostej, księżniczka Implikacji Odwrotnej oraz książę Równoważności.
… dowód za chwilę.
Punkt 1.0 zawiera kompendium wiedzy o algebrze Kubusia, przy pierwszym czytaniu można go pominąć.
Największy udział w powstaniu algebry Kubusia miały dwa fora dyskusyjne, ŚFINIA Wuja Zbója i [link widoczny dla zalogowanych]. ŚFINIA to Ojczyzna Kubusia, to Hlefik w którym się urodził i gdzie od 5-ciu lat dokumentuje historię powstawania algebry Kubusia krok po kroku.
1.0 Notacja
Skróty:
AK = Algebra Kubusia
1 = prawda
0 = fałsz
~ - przeczenie, negacja (NOT), w mowie potocznej "NIE"
~(...) - w mowie potocznej "nie może się zdarzyć że ...", "nie prawdą jest że ..."
Jedno z kluczowych praw algebry Boole’a:
A=~(~A) – prawo podwójnego przeczenia
Przykład:
Jestem uczciwy
U
Zaprzeczenie:
Nie jestem uczciwy
~U
Podwójne zaprzeczenie:
Nieprawdą jest, że jestem nieuczciwy = jestem uczciwy
~(~U) = U
Zdanie w algebrze Kubusia
Zdanie = zdanie mające sens w danym języku
W algebrze Kubusia zdanie to poprawne lingwistycznie zdanie sensowne.
Przykłady zdań prawdziwych:
Jutro pójdę do kina i do teatru
Y=K*T
Jutro pójdę do kina lub do teatru ale nie pójdę na basen
Y=(K+T)*~B
Zdanie warunkowe:
Jeśli p to q
gdzie:
p – poprzednik
q – następnik
Jeśli jutro będzie padało to na pewno => będzie pochmurno
P=>CH=1
Jeśli zwierzę ma cztery łapy to może ~> być psem
4L~>P=1 – zdanie prawdziwe bo każdy pies ma cztery łapy
Jeśli zwierzę ma cztery łapy to może ~~> nie być psem
4L~~>~P=1 – zdanie prawdziwe bo koń, słoń, kot…
Przykłady zdań fałszywych:
Jeśli pies jest różowy to krowa śpiewa w operze
PR=>KS=0
W algebrze Kubusia wszelkie zdania bezsensowne jak wyżej są fałszywe, w szczególności fałszywe są wszystkie zdania w których poprzednik jest bez związku z następnikiem.
Jeśli 2+2=4 to pies ma cztery łapy
224=>4L=0
# - różne w znaczeniu jak niżej
Fundament logiki:
1 = prawda
0 = fałsz
1# 0
prawda # fałsz
0 # 1
fałsz # prawda
A – zmienna binarna mogąca przyjmować wartości wyłącznie 0 albo 1
A#~A
Jeśli A=1 to ~A=0
Jeśli ~A=1 to A=0
Y – funkcja logiczna n-zmiennych binarnych (wyjście cyfrowe w bramkach logicznych)
Y=A+B(C+D)…
Y=~A – symboliczna definicja negatora
## - różne funkcje logiczne !
Operatory OR i AND
Równanie ogólne dla operatorów AND i OR:
p+q = ~(~p*~q)=1 ## p*q = ~(~p+~q) =1 – prawa de’Morgana
gdzie:
Na poziomie operatorów:
+ - suma logiczna, operator OR
* - iloczyn logiczny, operator AND
Operator logiczny OR to złożenie spójnika „lub” w logice dodatniej ze spójnikiem „i” w logice ujemnej
Operator logiczny AND to złożenie spójnika „i” w logice dodatniej ze spójnikiem „lub” w logice ujemnej
Równanie ogólne operatorów OR i AND w układzie równań logicznych:
Y=p+q=~(~p*~q)
stąd:
Y=p+q
Y=~(~p*~q)
Negując stronami otrzymujemy:
~Y=~p*~q
Stąd równanie ogólne w układzie równań logicznych:
Kod: |
Y=p+q ## Y=p*q
~Y=~p*~q ## ~Y=~p+~q
|
Gdzie:
Y – dotrzymam słowa (wystąpi prawda), logika dodatnia bo funkcja logiczna niezanegowana Y
~Y – skłamię (wystąpi fałsz), logika ujemna bo funkcja logiczna zanegowana ~Y
Na poziomie spójników zdaniowych:
+ - spójnik „lub”
* - spójnik „i”
Spójnik logiczny „lub” („i”) w logice dodatniej to odpowiedź na pytanie:
Y - kiedy dotrzymam słowa, wystąpi prawda
A: Y=p+q
Spójnik logiczny „lub” („i”) w logice ujemnej to odpowiedź na pytanie:
~Y – kiedy skłamię, wystąpi fałsz
Przejście z równaniem A do logiki ujemnej poprzez negacje zmiennych i wymiane operatorów na przeciwne
B.: ~Y=~p*~q
Związek logiki dodatniej (Y )i ujemnej (~Y)
Y=~(~Y) – prawo podwójnego przeczenia
Stąd prawa de’Morgana:
p+q ~(~p*~q) – dla lewej strony ##
p*q = ~(~p+~q) – dla prawej strony ##
Implikacja prosta => i odwrotna ~>
Równanie ogólne dla operatorów implikacji:
p=>q = ~p~>~q=1 ## p~>q = ~p=>~q=1 – prawa Kubusia
gdzie:
q – logika dodatnia bo q niezanegowane
~q – logika ujemne bo q zanegowane
Na poziomie operatorów logicznych:
=> - operator implikacji prostej, złożenie spójnika „musi” => w logice dodatniej ze spójnikiem „może” ~> w logice ujemnej
p=>q = ~p~>~q – prawo Kubusia
~> - operator implikacji odwrotnej, złożenie spójnika „może” ~> w logice dodatniej ze spójnikiem „musi” => w logice ujemnej
p~>q = ~p=>~q – prawo Kubusia
Na poziomie spójników zdaniowych w implikacji:
=> - warunek wystarczający, spójnik „musi”
~> - warunek konieczny, spójnik „może” ze spełnionym prawem Kubusia:
p~>q = ~p=>~q
Twierdzenie ŚFINII:
Warunek konieczny między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik.
p~>q = ~p=>~q – I prawo Kubusia
~p~>~q = p=>q – II prawo Kubusia
Równoważność
Definicja równoważności w równaniu algebry Kubusia:
p<=>q = (p=>q)*(p~>q) = (p=>q)*(~p=>~q)
gdzie zapis:
(p=>q)*(p~>q)
Oznacza wyłącznie jednoczesne zachodzenie warunku wystarczającego => i koniecznego ~> między p i q
=> - warunek wystarczający, spójnik „musi”
~> - warunek konieczny w rozumieniu twierdzenia śfinii, w równoważności nie jest to spójnik „może” !
Twierdzenie ŚFINII:
Warunek konieczny między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik.
p~>q = ~p=>~q – I prawo Kubusia
~p~>~q = p=>q – II prawo Kubusia
Z twierdzenia ŚFINII wynika, że całą logikę możemy sprowadzić do badania wyłącznie warunków wystarczających – łatwych w dowodzeniu matematycznym.
Definicja warunku wystarczającego w logice dodatniej (bo q niezanegowane):
Kod: |
p=>q =1
1 1 =1
p=>~q=0
1 0 =0
|
p=>q
Jeśli zajdzie p to na pewno => zajdzie q
p=>q=1
1 1 =1
Bowiem przypadek zajdzie p i nie zajdzie q jest wykluczony:
p=>~q=0
1 0 =0
Definicja warunku wystarczającego w logice ujemnej (bo q zanegowane):
Kod: |
~p=>~q =1
1 1 =1
~p=>q=0
1 0 =0
|
~p=>~q
Jeśli zajdzie ~p to na pewno => zajdzie ~q
~p=>~q=1
1 1 =1
Bowiem przypadek zajdzie ~p i zajdzie q jest wykluczony:
~p=>q=0
1 0 =0
W równoważności mamy 100% determinizm, nie ma tu miejsca na przypadkowość opisywaną w implikacji spójnikiem „może” ~>
Stąd jedyna poprawna definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)
Równoważność to iloczyn logiczny warunków wystarczających (spójnik „musi”=>) w logice dodatniej (bo q) i w logice ujemnej (bo ~q)
Twierdzenie Rexerexa:
Jeśli równoważność jest udowodniona to zachodzi wszystko co tylko możliwe:
p=>q = p<=>q = (p=>q)*(~p=>~q) = ~p<=>~q = ~p=>~q = (p=>q)*(q=>p) = q=>p
1.1 Matematyczna precyzja
Matematyka musi być wystarczająco precyzyjna a nie absolutnie precyzyjna
Z powyższego wynika tylko tyle, że jeden symbol matematyczny może mieć wiele znaczeń zależnych od kontekstu np.
A. ~> - warunek konieczny w implikacji, spójnik „może”
B. ~> - wyłącznie warunek konieczny w równoważności, to nie jest spójnik „może” !
C. ~> - operator implikacji odwrotnej, złożenie spójnika „może” w logice dodatniej ze spójnikiem „musi” w logice ujemnej:
p~>q = ~p=>~q – prawo Kubusia
Te symbole, mimo że identyczne, mają różne znaczenie zależne od kontekstu, są łatwo rozróżnialne w czasie analizy matematycznej zdania.
Mamy tu podobną sytuację jak w naturalnym języku mówionym.
Przykładowo, w języku mówionym „morze” i „może” jest nie do odróżnienia, ale w kontekście mamy 100% rozróżnialność:
Morze jest szerokie i głębokie
Może pójdę jutro na grzyby
Zginąć można zarówno w chaosie jak i nadmiernej precyzyjności
Kubuś
Oczywiście można napisać wersję algebry Kubusia hiper precyzyjnie, ale wyjdzie z tego horror niezrozumiały dla normalnych ludzi – jak kto nie wierzy, może próbować.
1.2 Istota algebry Kubusia w trzech definicjach
Definicje równoważne implikacji i równoważności
Implikacja:
1.
Implikacja prosta p=>q to zachodzenie wyłącznie warunku wystarczającego w kierunku p=>q
p=>q=1
p~>q=0
Na mocy prawa Kubusia mamy::
p~>q = ~p=>~q=0
Prawo Kubusia pozawala badać warunek wystarczający => (łatwy w analizie) zamiast koniecznego ~>.
Przykład:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1 – oczywistość
Badamy czy między p i q zachodzi warunek konieczny:
P8~>P2 = ~P8=>~P2=0 bo 2
Jeśli liczba nie jest podzielna przez 8 to na pewno => nie jest podzielna przez 2
~P8=>~P2=0 bo 2
Dla zdania wypowiedzianego mamy:
P8=>P2=1
P8~>P2=0
Wniosek:
Zdanie wypowiedziane A jest implikacja prostą =>
CND
2.
Implikacja odwrotna p~>q to zachodzenie wyłącznie warunku koniecznego w kierunku p~>q
p~>q=1
p=>q=0
Na mocy prawa Kubusia mamy::
p~>q = ~p=>~q=1
Prawo Kubusia pozawala badać warunek wystarczający => (łatwy w analizie) zamiast koniecznego ~>.
Przykład:
B.
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8
Prawo Kubusia:
P2~>P8 = ~P2=>~P8=1 – oczywistość
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8=1 – oczywistość
Badamy warunek wystarczający między P8 i P2.
Jeśli liczba jest podzielna przez 2 to na pewno => jest podzielna przez 8
P2=>P8=0 bo 2
Dla zdania wypowiedzianego mamy:
P2~>P8=1
P2=>P8=0
Wniosek:
Zdanie wypowiedziane B jest implikacją odwrotną ~>
CND
Znaczenie symboli w implikacji:
=> - warunek wystarczający między p i q, spójnik „musi”
~> - warunek konieczny między p i q, w implikacji spójnik „może” ze spełnionym prawem Kubusia
p~>q = ~p=>~q
Równoważność:
3.
p<=>q = (p=>q)*(p~>q)
Równoważność p<=>q to jednoczesne zachodzenie warunku wystarczającego i koniecznego w kierunku p=>q.
p=>q=1
p~>q=1
gdzie:
=> - warunek wystarczający między p i q, spójnik „musi”
~> - warunek konieczny między p i q w rozumieniu twierdzenia ŚFINII, nie jest to spójnik „może” !
Twierdzenie ŚFINII:
Warunek konieczny między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik.
p~>q = ~p=>~q – I prawo Kubusia
~p~>~q = p=>q – II prawo Kubusia
Z twierdzenia ŚFINII wynika, że całą logikę możemy sprowadzić do badania wyłącznie warunków wystarczających – łatwych w dowodzeniu matematycznym.
Przykład:
C.
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1 – oczywistość
Definicja równoważności:
TR<=>KR = (TR=>KR)*(TR~>KR) = (TR=>KR)*(~TR=>~KR)
Badamy warunek konieczny miedzy TR i KR:
TR~>KR = ~TR=>~KR=1 – oczywistość
Jeśli trójkąt nie jest równoboczny to na pewno nie ma kątów rownych
~TR=>~KR=1
gdzie:
TR~>KR to warunek konieczny w rozumieniu twierdzenia śfinii, w równoważności nie jest to spójnik „może” ~> !
Dla naszego zdania mamy:
TR=>KR=1
TR~>KR=1
Wniosek:
Zdanie wypowiedziane C jest tylko warunkiem wystarczającym wchodzącym w skład definicji równoważności. Na mocy twierdzenia Rexerexa możemy powiedzieć że zdanie C jest równoważnością.
Twierdzenie Rezerexa:
Jeśli równoważność jest udowodniona to zachodzi wszystko co tylko możliwe:
TR=>KR = TR<=>KR = (TR=>KR)*(~TR=>~KR)
bowiem analiza zdania TR=>KR przez wszystkie możliwe przeczenia TR i KR daje identyczna tabelę zero-jedynkowa równoważności jak analiza zdania TR<=>KR
O zdaniu TR=>KR nie wolno nam powiedzieć iż jest to implikacja prosta bowiem zdanie to nie spełnia definicji implikacji prostej jak wyżej.
1.3 Operatory OR i AND w definicjach operatorowych
Definicja spójnika „lub” (OR) w logice dodatniej:
Suma logiczna n-zmiennych binarnych jest równa jeden wtedy i tylko wtedy gdy dowolna ze zmiennych jest równa jeden
Y=p+q
Y=1 <=> p=1 lub q=1
Rozwinięcie szczegółowe:
Y=p+q = p*q+p*~q+~p*q
Definicja spójnika „i” (AND) w logice dodatniej:
Iloczyn logiczny n-zmiennych binarnych jest równy jeden wtedy i tylko wtedy gdy każda ze zmiennych jest równa jeden
Y=p*q
Y=1 <=> p=1 i q=1
Definicje w logice dodatniej bowiem interesuje nas wyłącznie przypadek kiedy zdanie będzie prawdziwe.
## - różne funkcje logiczne !
Operatory OR i AND
Definicja zero-jedynkowa operatora OR:
Kod: |
p q Y=p+q
1 1 =1
1 0 =1
0 1 =1
0 0 =0
|
Definicja zero-jedynkowa operatora AND:
Kod: |
p q Y=p*q
1 1 =1
1 0 =0
0 1 =0
0 0 =0
|
Oczywiście na mocy definicji:
p+q ## p*q
Prawo de’Morgana dla operatora OR:
Kod: |
p q Y=p+q ~Y=~(p+q) ~p ~q ~Y=~p*~q Y=~(~p*~q)
1 1 =1 =0 0 0 =0 =1
1 0 =1 =0 0 1 =0 =1
0 1 =1 =0 1 0 =0 =1
0 0 =0 =1 1 1 =1 =0
|
Prawo de’Morgana dla logiki dodatniej (bo Y niezaprzeczone):
Y=p+q = ~(~p*~q) – trzecia i ostatnia kolumna
Prawo de’Morgana dla logiki ujemnej (bo ~Y):
~Y=~(p+q) = ~p*~q – czwarta i siódma kolumna
Oczywiście zachodzi:
Y # ~Y
W przedostatniej kolumnie musi być funkcja logiczna w logice ujemnej (~Y) inaczej prawo de’Morgana leży w gruzach.
To jest automatycznie dowód poprawności przejścia do logiki przeciwnej metodą przedszkolaka.
Negujemy zmienne i wymieniamy operatory logiczne na przeciwne:
Y=p+q
Przejście do logiki ujemnej:
~Y=~p*~q
Definicje spójników logicznych
Definicja spójnika „lub” w logice dodatniej bo Y:
Suma logiczna n-zmiennych binarnych jest równa jeden wtedy i tylko wtedy gdy dowolna zmienna jest równa jeden
Y=p+q
Matematycznie oznacza to:
Y=1 <=> p=1 lub q=1
Szczegółowa rozpiska:
Y=p+q = p*q+p*~q+~p*q
Kod: |
Kolumny 1,2,3
Y=p+q = p*q+p*~q+~p*q
Y – dotrzymam słowa (wystąpi prawda)
p q Y=p+q
1 1 =1 /p*q=Y
1 0 =1 /p*~q=Y
0 1 =1 /~p*q=Y
|
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne.
~Y=~p*~q
Kod: |
Kolumny 5,6,7
~Y=~p*~q
~Y – skłamię (wystąpi fałsz)
~p ~q ~Y=~p*~q
1 1 =1 /~p*~q=~Y
|
Definicja spójnika „i” w logice ujemnej bo ~Y:
Iloczyn logiczny n-zmiennych binarnych jest równy jeden wtedy i tylko wtedy gdy każda ze zmiennych jest równa jeden.
~Y=~p*~q
Matematycznie oznacza to:
~Y=1 <=> ~p=1 i ~q=1
Z powyższego wynika, że nasz mózg traktuje zdania w logice dodatniej i ujemnej jako zdania nowo wypowiedziane 1 1 =1.
Y=p+q
~Y=~p*~q
Kod: |
~p ~q ~Y=~p*~q
1 1 =1
|
W świecie zewnętrznym w stosunku do naszego mózgu widzimy definicję zero-jedynkową operatora OR:
Kod: |
Y=p+q = p*q+p*~q+~p*q
Y – dotrzymam słowa (wystąpi prawda)
p q Y=p+q
1 1 =1 /p*q=Y
1 0 =1 /p*~q=Y
0 1 =1 /~p*q=Y
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne.
~Y=~p*~q
~Y – skłamię (wystąpi fałsz)
0 0 =0 /~p*~q=~Y
|
Doskonale widać tabele zero-jedynkową operatora OR dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1=1:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
Definicja operatora logicznego OR:
Operator logiczny OR to złożenie spójnika „lub” (OR) w logice dodatniej (bo Y) ze spójnikiem „i” (AND) w logice ujemnej (bo ~Y)
Prawo de’Morgana dla operatora AND:
Kod: |
p q Y=p*q ~Y=~(p*q) ~p ~q ~Y=~p+~q Y=~(~p+~q)
1 1 =1 =0 0 0 =0 =1
1 0 =0 =1 0 1 =1 =0
0 1 =0 =1 1 0 =1 =0
0 0 =0 =1 1 1 =1 =0
|
Prawo de’Morgana dla logiki dodatniej (bo Y niezaprzeczone):
Y=p*q = ~(~p+~q) – trzecia i ostatnia kolumna
Prawo de’Morgana dla logiki ujemnej (bo ~Y):
~Y=~(p*q) = ~p+~q
Oczywiście zachodzi:
Y # ~Y
W przedostatniej kolumnie musi być funkcja logiczna w logice ujemnej (~Y) inaczej prawo de’Morgana leży w gruzach.
To jest automatycznie dowód poprawności przejścia do logiki przeciwnej metodą przedszkolaka.
Negujemy zmienne i wymieniamy operatory logiczne na przeciwne:
Y=p*q
Przejście do logiki ujemnej:
~Y=~p+~q
Definicje spójników logicznych
Definicja spójnika „i” w logice dodatniej bo Y:
Iloczyn logiczny n-zmiennych binarnych jest równa jeden wtedy i tylko wtedy gdy każda ze zmiennych jest równa jeden
Y=p*q
Matematycznie oznacza to:
Y=1 <=> p=1 i q=1
Kod: |
Kolumny 1,2,3
Y – dotrzymam słowa (wystąpi prawda)
p q Y=p*q
1 1 =1
|
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne.
~Y=~p+~q
W rozpisce szczegółowej:
~Y=~p+~q = ~p*~q+~p*q+p*~q
Kod: |
Kolumny 5,6,7
~Y=~p+~q = ~p*~q+~p*q+p*~q
~Y – skłamię (wystąpi fałsz)
~p ~q ~Y=~p+~q
1 1 =1 /~p*~q=~Y
1 0 =1 /~p*q=~Y
0 1 =1 /p*~q=~Y
|
Definicja spójnika „lub” w logice ujemnej bo ~Y:
Suma logiczna n-zmiennych binarnych jest równy jeden wtedy i tylko wtedy gdy którakolwiek zmienna jest równa jeden.
~Y=~p+~q
Matematycznie oznacza to:
~Y=1 <=> ~p=1 lub ~q=1
W rozpisce szczegółowej:
~Y=~p+~q = ~p*~q+~p*q+p*~q
Z powyższego wynika że nasz mózg traktuje zdania w logice dodatniej i ujemnej jako zdania nowo wypowiedziane 1 1 =1.
Y=p*q
~Y=~p+~q
Kod: |
~p ~q ~Y=~p+~q
1 1 =1
|
W świecie zewnętrznym w stosunku do naszego mózgu widzimy definicje zero-jedynkową operatora AND:
Kod: |
Y – dotrzymam słowa (wystąpi prawda)
p q Y=p*q
1 1 =1
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne.
~Y=~p+~q
W rozpisce szczegółowej:
~Y=~p+~q = ~p*~q+~p*q+p*~q
~Y – skłamię (wystąpi fałsz)
0 0 =0 /~p*~q=~Y
0 1 =0 /~p*q=~Y
1 0 =0 /p*~q=~Y
|
Doskonale widać tabelę zero-jedynkową operatora AND dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
Definicja operatora logicznego AND:
Operator logiczny AND to złożenie spójnika „i” (and) w logice dodatniej (bo Y) ze spójnikiem „lub” (or) w logice ujemnej (bo ~Y)
Równanie ogólne dla operatorów AND i OR:
p+q = ~(~p*~q)=1 ## p*q = ~(~p+~q) =1 – prawa de’Morgana
gdzie:
Na poziomie operatorów:
+ - suma logiczna, operator OR
* - iloczyn logiczny, operator AND
Równanie ogólne operatorów OR i AND w układzie równań logicznych:
Y=p+q=~(~p*~q)
stąd:
Y=p+q
Y=~(~p*~q)
Negując stronami otrzymujemy:
~Y=~p*~q
Stąd równanie ogólne w układzie równań logicznych:
Kod: |
Y=p+q ## Y=p*q
~Y=~p*~q ## ~Y=~p+~q
|
Gdzie:
Y – dotrzymam słowa (wystąpi prawda), logika dodatnia bo funkcja logiczna niezanegowana Y
~Y – skłamię (wystąpi fałsz), logika ujemna bo funkcja logiczna zanegowana ~Y
Na poziomie spójników zdaniowych:
+ - spójnik „lub”
* - spójnik „i”
Związek logiki dodatniej (Y )i ujemnej (~Y)
Y=~(~Y) – prawo podwójnego przeczenia
Stąd prawa de’Morgana:
p+q ~(~p*~q) – dla lewej strony ##
p*q = ~(~p+~q) – dla prawej strony ##
Definicja operatorowa operatora OR:
Kod: |
Dotrzymam słowa (Y)
Y=p+q = p*q+p*~q+~p*q
p*q=Y
1 1 =1
p*~q=Y
1 0 =1
~p*q=Y
0 1 =1
A kiedy skłamię (~Y)
Przejście do logiki ujemnej poprzez negację zmiennych
i wymianę operatorów na przeciwne
~Y=~p*~q
~p*~q=~Y
0 0 =1
|
Tabele zero-jedynkowa operatora OR otrzymujemy dla kodowania zgodnego ze zdaniem wypowiedzianym Y=p+q:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
Przykład:
Zdanie wypowiedziane:
ZW.
Jutro pójdę do kina lub do teatru
Y=K+T
Rozwinięcie sumy logicznej:
Y=K+T = K*T+K*~T+~K*T
stąd:
Dotrzymam słowa (Y) jeśli:
A.
Jutro pójdę do kina i do teatru
K*T=Y
1 1 =1
lub
B.
Jutro pójdę do kina i nie pójdę do teatru
K*~T=Y
1 0 =1
lub
C.
Jutro nie pójdę do kina i pójdę do teatru
~K*T=Y
0 1 =1
…. a kiedy skłamię ?
Przejście do logiki ujemnej (~Y) poprzez negacje zmiennych i wymiane operatorów na przeciwne
Zdanie wypowiedziane:
Y=K+T – dotrzymam słowa (Y)
stąd:
~Y=~K*~T – skłamię (~Y)
D.
Jutro nie pójdę do kina i nie pójdę do teatru
~K*~T=~Y
0 0 =0
Tabele zero-jedynkową operatora OR otrzymujemy dla kodowania zgodnego ze zdaniem wypowiedzianym ZW.
K=1, ~K=0
T=1, ~T=0
Y=1, ~Y=0
Definicja operatorowa AND
Kod: |
Dotrzymam słowa (Y)
Y=p*q
stąd:
p*q=1
1 1 =1
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negacje zmiennych
i wymianę operatorów na przeciwne
~Y=~p+~q – skłamię (~Y)
Rozwinięcie na mocy definicji spójnika OR:
~Y=~p+~q = ~p*~q+~p*q+p*~q
stad:
~p*~q=~Y
0 0 =0
lub
~p*q=~Y
0 1 =0
lub
p*~q=~Y
1 0 =0
|
Tabele zero-jedynkowa operatora OR otrzymujemy dla kodowania zgodnego ze zdaniem wypowiedzianym Y=p*q:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
Przykład.
Zdanie wypowiedziane:
ZW
Jutro pójdę do kina i do teatru
Y=K*T
Analiza matematyczna:
A.
Jutro pójdę do kina i do teatru
K*T=Y – dotrzymam słowa (Y)
1 1 =1
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negacje zmiennych
i wymianę operatorów na przeciwne
Y=K*T
stąd:
~Y=~K+~T – skłamię (~Y)
Rozwinięcie na mocy definicji spójnika lub
~Y=~K+~T = ~K*~T+~K*T+K*~T
stąd:
Skłamie jeśli:
B.
Jutro nie pójdę do kina i nie pójdę do teatru
~K*~T=~Y
0 0 =0
lub
C.
Jutro nie pójdę do kina i pójdę do teatru
~K*T=~Y
0 1 =0
lub
D.
Jutro pójdę do kina i nie pójdę do teatru
K*~T=~Y
1 0 =0
Doskonale widać tabele zero-jedynkowa operatora AND dla kodowania zgodnego ze zdaniem wypowiedzianym ZW:
K=1, ~K=0
T=1, ~T=0
Y=1, ~Y=0
1.4 Implikacja w definicjach operatorowych
Implikacja prosta => i odwrotna ~>
Równanie ogólne dla operatorów implikacji:
p=>q = ~p~>~q=1 ## p~>q = ~p=>~q=1 – prawa Kubusia
gdzie:
q – logika dodatnia bo q niezanegowane
~q – logika ujemne bo q zanegowane
Na poziomie operatorów logicznych:
=> - operator implikacji prostej
~> - operator implikacji odwrotnej
Na poziomie spójników zdaniowych w implikacji:
=> - warunek wystarczający, spójnik „musi”
~> - warunek konieczny, spójnik „może” ze spełnionym prawem Kubusia:
p~>q = ~p=>~q
Twierdzenie ŚFINII:
Warunek konieczny między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik.
p~>q = ~p=>~q – I prawo Kubusia
~p~>~q = p=>q – II prawo Kubusia
Definicja zero-jedynkowa implikacji prostej:
Kod: |
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Definicja zero-jedynkowa implikacji odwrotnej:
Kod: |
p q p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Na mocy definicji mamy:
p=>q ## p~>q
bo to dwie fundamentalnie inne tabele zero-jedynkowe
Prawa Kubusia:
p=>q = ~p~>~q
p~>q = ~p=>~q
Dowód prawa Kubusia dla operatora implikacji prostej =>:
Kod: |
p q p=>q ~p ~q ~p~>~q
1 1 =1 0 0 =1
1 0 =0 0 1 =0
0 0 =1 1 1 =1
0 1 =1 1 0 =1
|
p=>q = ~p~>~q
CND
Na podstawie powyższej tabeli mamy definicje spójników logicznych.
Definicja spójnika „musi” w logice dodatniej bo q niezanegowane:
Kod: |
Kolumny 1,2,3
p q p=>q
1 1 =1 /p=>q=1
1 0 =0 /p=>~q=0
|
p=>q
Jeśli zajdzie p to musi zajść q
bowiem zajście p i ~q jest wykluczone
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q = ~p~>~q
Definicja spójnika „może” ~> w logice ujemnej bo q zanegowane:
Kod: |
Kolumny 4,5,6
~p ~q ~p~>~q
1 1 =1 /~p~>~q=1
1 0 =1 /~p~~>q=1
|
~p~>~q=1
Jeśli zajdzie ~p to może ~> zajść ~q
bo druga linia:
Jeśli zajdzie ~p to może ~~> zajść q
~p~~>~q=1
też ma szansę wystąpić
Dodatkowo dla spójnika „może” ~> musi być spełnione prawo Kubusia:
p~>q = ~p=>~q
Bowiem możliwy jest spójnik „może” ~~> gdzie prawo Kubusia nie zachodzi.
Definicja naturalnego spójnika „może”~~>
Wystarczy znaleźć jeden przypadek prawdziwy, warunek konieczny tu nie zachodzi.
Przykład:
Jeśli zwierzę nie jest psem to może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń
Prawo Kubusia:
~P~>4L = P=>~4L=0
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L=0
Prawa strona jest fałszem, zatem lewa strona też musi być fałszem, czyli warunek konieczny tu nie zachodzi
Z powyższego wynika że mózg człowieka traktuje poniższe zdania jako nowo wypowiedziane 1 1 =1:
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q = ~p~>~q
W świecie zewnętrznym w stosunku do naszego mózgu widzimy tabele zero-jedynkowa implikacji prostej.
Definicja operatorowa implikacji prostej:
Kod: |
p=>q =1
1 1 =1
p=>~q=0
1 0 =0
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q = ~p~>~q
~p~>~q=1
0 0 =1
~p~~>q=1
0 1 =1
|
Doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1:
p=1, ~p=0
q=1, ~q=0
gdzie:
=> - warunek wystarczający, spójnik „musi”
~> - warunek konieczny, spójnik „może” ze spełnionym prawem Kubusia:
p~>q = ~p=>~q
~~> - zdanie prawdziwe na mocy naturalnego spójnika „może”, warunek konieczny tu nie zachodzi
Dowód prawa Kubusia dla operatora implikacji odwrotnej:
Kod: |
p q p~>q ~p ~q ~p=>~q
1 1 =1 0 0 =1
1 0 =1 0 1 =1
0 0 =1 1 1 =1
0 1 =0 1 0 =0
|
p=>q = ~p~>~q
CND
Na podstawie powyższej tabeli mamy definicje spójników logicznych.
Definicja spójnika „może” w logice dodatniej bo q niezanegowane, warunek konieczny.
Kod: |
Kolumny 1,2,3
p q p~>q
1 1 =1 /p~>q=1
1 0 =1 /p~~>~q=1
|
p~>q
Jeśli zajdzie p to może zajść q
bo druga linia:
Jeśli zajdzie p to może zajść ~q
p~~>~q=1
też ma szansę wystąpić
Dodatkowo musi być spełnione prawo Kubusia:
p~>q = ~p=>~q
bowiem możliwe jest zdanie ze spójnikiem „może” gdzie warunek konieczny nie występuje.
Definicja naturalnego spójnika „może”~~>
Wystarczy znaleźć jeden przypadek prawdziwy.
Przykład:
Jeśli zwierze ma cztery łapy to może nie być psem
4L~~>~P=1 bo słoń
Prawo Kubusia:
4L~>~P = ~4L=>P=0
Jeśli zwierze nie ma czterech łap to na pewno => jest psem
~4L=>P=0
Prawa strona jest fałszem, zatem lewa nie może być warunkiem koniecznym ~>.
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q
Definicja spójnika „musi” ~> w logice ujemnej bo q zanegowane:
Kod: |
Kolumny 4,5,6
~p ~q ~p=>~q
1 1 =1 /~p=>~q=1
1 0 =0 /~p=>q=0
|
~p=>~q=1
Jeśli zajdzie ~p to musi zajść ~q
bo druga linia:
Jeśli zajdzie ~p to na pewno zajdzie q
~p=>q=0
jest twardym fałszem i nie ma prawa wystąpić
Z powyższego wynika, że mózg człowieka traktuje poniższe zdania jako nowo wypowiedziane 1 1 =1:
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q
Z punktu odniesienia świata zewnętrznego w stosunku do naszego mózgu widzimy wyłącznie tabelę zero-jedynkowa implikacji odwrotnej ~>:
Definicja operatorowa implikacji odwrotnej:
Kod: |
p~>q =1
1 1 =1
p~~>~q=1
1 0 =1
… a jeśli zajdzie ~p ?
Prawo Kubusia:
~p~>~q = p=>q
p=>q=1
0 0 =1
p=>~q=0
0 1 =0
|
Tabele zero-jedynkową implikacji odwrotnej uzyskano dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1:
p=1, ~p=0
q=1, ~q=0
gdzie:
=> - warunek wystarczający, spójnik „musi”
~> - warunek konieczny, spójnik „może” ze spełnionym prawem Kubusia:
~p~>~q = p=>q
~~> - zdanie prawdziwe na mocy naturalnego spójnika „może”, warunek konieczny tu nie zachodzi
Przykład implikacji prostej:
ZW:
Jeśli zwierze jest psem to na pewno => ma cztery łapy
P=>4L=1
stąd:
B.
Jeśli zwierze jest psem to na pewno => nie ma czterech łap
P=>~4L=0
1 0 =0
… a jeśli zwierze nie jest psem ?
Prawo Kubusia:
P=>4L = ~P~>~4L
C.
Jeśli zwierze nie jest psem to może ~> nie mieć czterech łap
~P~>~4L=1 bo kura
0 0 =1
LUB
D.
Jeśli zwierze nie jest psem to może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń
0 1 =1
Doskonale widać tabelę implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym ZW:
P=1, ~P=0
4L=1, ~4L=0
gdzie:
=> - warunek wystarczający, spójnik „musi”
~> - warunek konieczny, spójnik „może” ze spełnionym prawem Kubusia:
~p~>~q = p=>q
~~> - zdanie prawdziwe na mocy naturalnego spójnika „może”, warunek konieczny tu nie zachodzi
Zdanie D nie może być implikacja odwrotną ~> bo prawo Kubusia:
~P`~>4L=P=>~4L=0
Przykład implikacji odwrotnej:
ZW.
Jeśli zwierze ma cztery łapy to może być psem
4L~>P
Analiza matematyczna:
A.
Jeśli zwierzę ma cztery łapy to może ~> być psem
4L~>P=1 bo pies
1 1 =1
LUB
B.
Jeśli zwierze ma cztery łapy to może ~~> nie być psem
4L~~>~P=1 bo słoń
1 0 =1
… a jeśli zwierzę nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
C.
Jeśli zwierze nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1 kura, waż, stonoga…
0 0 =1
stąd:
Jeśli zwierze nie ma czterech łap to na pewno => jest psem
~4L=>P=0
0 1 =0
Doskonale widać zero-jedynkowa definicje implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym ZW.
4L=1, ~4L=0
P=1, ~P=0
gdzie:
=> - warunek wystarczający, spójnik „musi”
~> - warunek konieczny, spójnik „może” ze spełnionym prawem Kubusia:
~p~>~q = p=>q
~~> - zdanie prawdziwe na mocy naturalnego spójnika „może”, warunek konieczny tu nie zachodzi
Zdanie B nie może być implikacja odwrotną bo prawo Kubusia:
4L~>~P=~4L=>P=0
Zdanie b jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy znaleźć jeden przykład prawdziwy.
1.5 Równoważność w definicji operatorowej
Równoważność
Definicja zero-jedynkowa równoważności:
Kod: |
p q p<=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =0
|
Definicja równoważności w równaniu algebry Kubusia:
p<=>q = (p=>q)*(p~>q) = (p=>q)*(~p=>~q)
gdzie zapis:
(p=>q)*(p~>q)
Oznacza wyłącznie jednoczesne zachodzenie warunku wystarczającego => i koniecznego ~> między p i q
=> - warunek wystarczający, spójnik „musi”
~> - warunek konieczny w rozumieniu twierdzenia sfinii, w równoważności nie jest to spójnik „może” !
Twierdzenie ŚFINII:
Warunek konieczny między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik.
p~>q = ~p=>~q – I prawo Kubusia
~p~>~q = p=>q – II prawo Kubusia
Z twierdzenia ŚFINII wynika, że całą logikę możemy sprowadzić do badania wyłącznie warunków wystarczających – łatwych w dowodzeniu matematycznym.
Definicja warunku wystarczającego w logice dodatniej (bo q niezanegowane):
Kod: |
p=>q =1
1 1 =1
p=>~q=0
1 0 =0
|
p=>q
Jeśli zajdzie p to na pewno => zajdzie q
p=>q=1
Bowiem przypadek zajdzie p i nie zajdzie q jest wykluczony:
p=>~q=0
1 0 =0
Definicja warunku wystarczającego w logice ujemnej (bo q zanegowane):
Kod: |
~p=>~q =1
1 1 =1
~p=>q=0
1 0 =0
|
~p=>~q
Jeśli zajdzie ~p to na pewno => zajdzie ~q
~p=>~q=1
Bowiem przypadek zajdzie ~p i zajdzie q jest wykluczony:
~p=>q=0
1 0 =0
W równoważności mamy 100% determinizm, nie ma tu miejsca na przypadkowość opisywaną w implikacji spójnikiem „może” ~>
Stąd jedyna poprawna definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)
Równoważność to iloczyn logiczny warunków wystarczających (spójnik „musi”=>) w logice dodatniej (bo q) i w logice ujemnej (bo ~q)
Twierdzenie Rexerexa:
Jeśli równoważność jest udowodniona to zachodzi wszystko co tylko możliwe:
p=>q = p<=>q = (p=>q)*(~p=>~q) = ~p<=>~q = ~p=>~q = (p=>q)*(q=>p) = q=>p
Dowód:
Analiza dowolnego zdania wyżej przez wszystkie możliwe przeczenia p i q daje identyczna tabelę zero-jedynkową równoważności
Kod: |
p<=>q = (p=>q)*(~p=>~q)
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
… a jeśli zajdzie ~p ?
~p<=>~q = (~p=>~q)*(p=>q)
~p=>~q=1
0 0 =1
~p=>q=0
0 1 =0
|
Tabele zero-jedynkową uzyskujemy dla kodowania zgodnego ze zdaniem wypowiedzianym p=>q:
p=1, ~p=0
q=1, ~q=0
Przykład:
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR
Równoważność jest tu oczywista, zatem na mocy twierdzenia Rexerexa:
TR=>KR = TR<=>KR
bowiem analiza obu tych zdań przez wszystkie możliwe przeczenia p i q daje tabele zero-jedynkowa równoważności
Analiza matematyczna:
TR<>KR = (TR=>KR)*(~TR=>~KR)
A.
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1
1 1 =1
B.
Jeśli trójkąt jest równoboczny to na pewno => nie ma kątów równych
TR=>~KR=0
1 0 =0
… a jeśli trójkąt nie jest równoboczny ?
TR<=>KR = ~TR<=>~KR = (~TR=>~KR)*(TR=>KR)
C.
Jeśli trójkat nie jest równoboczny to na pewno =. nie ma katów równych
~TR=>~KR=1
0 0 =1
D.
Jeśli trójkąt nie jest równoboczny to na pewno => ma kąty równe
~TR=>KR=0
0 1 =0
Doskonale widać tabele zero-jedynkową równoważności dla kodowania zgodnego ze zdaniem wypowiedzianym ZW:
TR=1, ~TR=0
KR=1, ~KR=0
gdzie:
=> - warunek wystarczający, spójnik „na pewno” między p i q
1.6 Algebra Kubusia i kwantyfikatory
W algebrze Kubusia kwantyfikatory są zbędne bowiem:
Kwantyfikator duży = definicja warunku wystarczającego w algebrze Kubusia
Kwantyfikator mały = definicja naturalnego spójnika „może” ~~>, wystarczy znaleźć jeden przypadek prawdziwy
Kwantyfikator duży w algebrze Kubusia:
Kod: |
Definicja warunku wystarczającego, spójnik „musi” =>
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
|
p=>q=1
Jeśli zajdzie p to musi zajść q
bo druga linia jest fałszem i nie ma prawa wystąpić
Wynika z tego że p musi być wystarczające dla q
To samo przy pomocy kwantyfikatora dużego:
/\x Jeśli p(x) => q(x)
czyli:
Dla każdego x jeśli p(x) to na pewno=> q(x)
Możliwe jest równoważne rozstrzygnięcie o warunku wystarczającym.
Krok 1.
Szukamy jednego przypadku spełniającego:
p~~>q=1
Krok 2.
Szukamy jednego przypadku spełniającego:
p~~>~q=1
Możliwe rozstrzygnięcia:
A.
Jeśli znajdziemy 1 i 2 to na pewno zdanie p=>q nie spełnia warunku wystarczającego
B.
Jeśli znajdziemy 1 i udowodnimy brak możliwości zajścia 2 to całe zdanie spełnia warunek wystarczający p=>q
Kwantyfikator mały może tu być przydatny w poszukiwaniu kontrprzykładu jak wyżej.
Kwantyfikator mały w algebrze Kubusia:
Kod: |
Definicja naturalnego spójnika „może” ~~>
p~~>q=1
1 1 =1
|
p~~>q=1
Jeśli zajdzie p to może zajść q
Wystarczy znaleźć jeden przypadek prawdziwy
To samo przy pomocy kwantyfikatora małego:
\/x Jeśli p(x) ~~>q(x)
czyli:
Istnieje takie x że jeśli p(x) to q(x)
Zauważmy, że w implikacji odwrotnej kwantyfikator mały leży i kwiczy, bowiem przy jego pomocy nie da się zapisać warunku koniecznego ~>.
Zapisanie w kwantyfikatorach prawa Kubusia to horror
/\x p(x) => q(x) = \/x ~p(x) ~>~q(x) ??
Powyższy zapis jest bez sensu bowiem prawo Kubusia działa na zmiennych binarnych a nie na stałych, czyli nie na konkretnej wartości.
Weźmy implikacje prostą:
Jeśli zwierzę jest psem to na pewno => ma cztery łapy
P=>4L
Prawo Kubusia w AK:
P=>4L=~P~>~4L
czyli:
Jeśli zwierze nie jest psem to może nie mieć czterech łap
~P~>~4L=1 kura, waz, stonoga, mrówka …
lub
Jeśli zwierze nie jest psem to może mieć cztery łapy
~P~~>4L=1 bo słoń, koń, kot …
Jak widzimy prawo Kubusia działa na zmiennych, nigdy na stałych.
To samo w kwantyfikatorach:
Dla każdego zwierzęcia jeśli jest psem to na pewno ma cztery łapy
/\z jeśli P=>4L
… ale jak zapisać prawo Kubusia ?
P=>4L = ~P~>~4L
Istnieje takie zwierzę, że jeśli nie jest psem to może nie mieć czterech łap
\/z jeśli ~P~~>~4L =1 bo kura, waż, mrówka, stonoga …
… ale nie konkretna kura !
Wniosek:
Kwantyfikator duży ma sens w algebrze Kubusia i jak kto lubi może używać.
Kwantyfikator mały może być przydatny wyłącznie w poszukiwaniu kontrprzykładu dla warunku wystarczającego, co pokazano wyżej.
2.0 Spójniki OR i AND
Definicja zmiennej binarnej:
Zmienna binarna to zmienna mogąca przyjmować w osi czasu wyłącznie dwie wartości:
1=prawda
lub
0=fałsz
Zmienną binarną oznaczamy literą lub ciągiem dowolnych znaków z wyjątkiem litery Y, zwyczajowo zarezerwowanej dla oznaczania funkcji logicznej.
Definicja funkcji logicznej:
Funkcja logiczna to funkcja zmiennych binarnych połączonych spójnikami „lub” (OR) lub „i” (AND):
Y = A+(B*C)…
Gdzie:
Y – funkcja logiczna (zwyczajowo litera Y)
Definicja spójnika OR w logice dodatniej:
Suma logiczna OR n-zmiennych binarnych (spójnik „lub”) jest równa 1 wtedy i tylko wtedy gdy którykolwiek składnik sumy jest równy 1.
Y= p+q
Y=1 <=> p=1 lub q=1
Definicja w logice dodatniej – interesuje nas wyłącznie kiedy wystąpi prawda (dotrzymam słowa)
Na mocy definicji mamy rozwinięcie szczegółowe:
Y=p*q+p*~q+~p*q
stąd definicja symboliczna, oraz tabela zero-jedynkowa dla kodowania zgodnego ze zdaniem wypowiedzianym:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
Kod: |
Y=p+q=p*q+p*~q+~p*q
p* q=Y /1 1 =1
p*~q=Y /1 0 =1
~p* q=Y /0 1 =1
|
Przykład:
Jutro pójdę do kina lub do teatru
Y=K+T
co matematycznie oznacza:
Dotrzymam słowa (Y=1) jeśli jutro pójdę do kina (K=1) lub pójdę do teatru (T=1)
Y=1<=>K=1 lub T=1
Na podstawie definicji szczegółowej mamy:
Y=K*T+~K*T+K*~T
czyli:
Dotrzymam słowa (Y) jeśli:
jutro pójdę do kina i do teatru
Y=K*T
lub
pójdę do kina i nie pójdę do teatru
Y=K*~T
lub
nie pójdę do kina i pójdę do teatru
Y=~K*T
Intuicyjnie jest to bez problemu zrozumiałe.
Definicja spójnika AND w logice dodatniej:
Iloczyn logiczny AND n-zmiennych binarnych (spójnik „i”) jest równy 1 wtedy i tylko wtedy gdy każda ze zmiennych jest równa 1.
Y = p+q
Y=1 <=> p=1 i q=1
Definicja w logice dodatniej – interesuje nas wyłącznie kiedy wystąpi prawda (dotrzymam słowa)
Definicja symboliczna z podkładem zero-jedynkowym:
Przykład:
Jutro pójdę do kina i do teatru
Y=K*T
co matematycznie oznacza:
Dotrzymam słowa (Y=1) gdy jutro Pojdę do kina (K=1) i do teatru (T=1)
Y=1<=> K=1 i T=1
Definicja w tabeli symbolicznej z podkładem zero-jedynkowym:
2.1 Definicja operatora OR
Przedszkole logiki:
A.
Jutro pójdę do kina lub do teatru
Y=K+T
gdzie;
Y – dotrzymam słowa, logika dodatnia bo brak przeczenia (Y)
co matematycznie oznacza:
Y=1 <=> K=1 lub T=1
Dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1) lub do teatru (T=1)
.. a kiedy skłamię ?
Przejście z równaniem A do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne:
~Y=~K*~T
B.
Skłamię, jeśli jutro nie pójdę do kina i nie pójdę do teatru
~Y=~K*~T
~Y – skłamię, logika ujemna bo funkcja zaprzeczona (~Y)
co matematycznie oznacza:
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y=1 <=> ~K=1 i ~T=1
Ze zdania A otrzymujemy szczegółowa rozpiskę:
Y=K+T = K*T +K*~T+~K*T
czyli:
Dotrzymam słowa (Y), jeśli:
Jutro pójdę do kina i do teatru (K*T)
Y=K*T
lub
pójdę do kina i nie pójdę do teatru (K*~T)
Y=K*~T
lub
nie pójde do kina i pójdę do teatru (~K*T)
Y=~K*T
Całe zdanie w równaniu algebry Boole'a:
C.
Y=K*T +K*~T+~K*T
Co matematycznie oznacza:
Y=1 <=> K*T=1 lub K*~T=1 lub ~K*T=1
Oczywiście jutro tylko jeden z przypadków po prawej stronie ma szansę być prawdziwym, pozostałe będą fałszywe.
Przykładowo, jeśli zajdzie przypadek:
Wczoraj byłem w kinie i nie byłem w teatrze (K*~T) to powyższe równanie przybierze postać:
Y=1 <=> K*T=0 lub K*~T=1 lub ~K*T=0
Na podstawie zdań C i B mamy tabelę symboliczną operatora OR:
Kod: |
K T Y=K+T=K*T+K*~T+~K*T
Dotrzymam słowa (Y)
K* T=Y
K*~T=Y
~K* T=Y
Skłamię (~Y)
~K*~T=~Y
|
Kodując tą tabelę zgodnie ze zdaniem wypowiedzianym:
Y=K+T
czyli:
K=1, ~K=0
T=1, ~T=0
Y=1, ~Y=1
otrzymujemy zero-jedynkowa definicje operatora OR:
Kod: |
K T Y=K+T=K*T+K*~T+~K*T
Dotrzymam słowa (Y)
K* T=Y /1 1 =1
K*~T=Y /1 0 =1
~K* T=Y /0 1 =1
Skłamię (~Y)
~K*~T=~Y /0 0 =0
|
Definicja operatora OR w zapisie ogólnym:
Kod: |
p q Y=p+q=p*q+p*~q+~p*q
Dotrzymam słowa (Y)
1 1 =1 /Y=p*q
1 0 =1 /Y=p*~q
0 1 =1 /Y=~p*q
Skłamię (~Y)
0 0 =0 /~Y=~p*~q
|
Definicja operatora OR:
Operator OR to złożenie spójnika „lub” w logice dodatniej (Y):
Dotrzymam słowa (Y):
Y=p+q
Y=1 <=> p=1 lub q=1
oraz spójnika „i” w logice ujemnej:
Skłamię (~Y):
~Y=~p*~q
~Y=1 <=.> ~p=1 i ~q=1
Związek logiki dodatniej i ujemnej:
Y=~(~Y)
Stąd z powyższej definicji mamy prawo de’Morgana:
p+q = ~(~p*~q)
Wniosek:
Prawo de ‘Morgana dla operatora OR to po prostu definicja operatora OR
Oczywiście operator logiczny to zupełnie co innego niż spójnik logiczny.
W technice cyfrowej definicję operatora OR realizuje bramka OR:
Kod: |
Bramka logiczna OR i jej układ zastępczy wynikający z prawa de’Morgana
p+q = ~(~p*~q)
O – symbol negatora (~)
p q
| |
| x-----------x
| | |
x-----------x |
| | | |
| | O O
------- -------
| | = | |
| OR | | AND |
------- -------
| O
| |
x-----------x
|
Y=p+q=~(~p*~q)
|
Tabela prawdy bramki OR:
Kod: |
p q Y=p+q
1 1 =1
1 0 =1
0 1 =1
0 0 =0
|
Tabela prawdy bramki OR to wymuszenie na wejściach p i q wszystkich możliwych stanów logicznych którym przypisujemy stan pojawiający się na wyjściu Y. Oczywiście, musi tu być 100% jednoznaczność zgodnie z definicją operatora OR.
W świecie zewnętrznym układ zastępczy bramki OR jest niemożliwy do rozpoznania. Jeśli mamy czarną skrzynkę z kabelkami wejściowymi p i q oraz kabelkiem wyjściowym Y, to niemożliwe jest stwierdzenie jak układ bramki OR jest realizowany w rzeczywistości.
2.2 Definicja operatora AND
Przedszkole logiki:
A.
Jutro pójdę do kina i do teatru
Y=K*T
gdzie;
Y – dotrzymam słowa, logika dodatnia bo brak przeczenia (Y)
co matematycznie oznacza:
Y=1 <=> K=1 i T=1
Dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1) i do teatru (T=1)
.. a kiedy skłamię ?
Przejście z równaniem A do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne:
~Y=~K+~T
B.
Skłamię jeśli jutro nie pójdę do kina lub nie pójdę do teatru
~Y=~K+~T
~Y – skłamię, logika ujemna bo funkcja zaprzeczona (~Y)
co matematycznie oznacza:
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1) lub nie pójdę do teatru (~T=1)
~Y=1 <=> ~K=1 lub ~T=1
Ze zdania B otrzymujemy:
~Y=~K+~T = ~K*~T +~K*T+K*~T
czyli:
Skłamię (~Y), jeśli:
Jutro nie pójdę do kina i nie pójdę do teatru (~K*~T)
~Y=~K*~T
lub
nie pójdę do kina i pójdę do teatru (~K*T)
~Y=~K*T
lub
pójdę do kina i nie pójdę do teatru (K*~T)
~Y=K*~T
Całe zdanie w równaniu algebry Boole'a:
C.
~Y=~K*~T +~K*T+K*~T
Co matematycznie oznacza:
~Y=1 <=> ~K*~T=1 lub ~K*T=1 lub K*~T=1
Oczywiście jutro tylko jeden z przypadków po prawej stronie ma szansę być prawdziwym, pozostałe będą fałszywe.
Przykładowo, jeśli zajdzie przypadek:
Wczoraj nie byłem w kinie i byłem w teatrze (~K*T) to powyższe równanie przybierze postać:
~Y=1 <=> ~K*~T=0 lub ~K*T=1 lub K*~T=0
Na podstawie zdań A i C mamy tabelę symboliczną operatora AND:
Kod: |
K T Y=K*T
Dotrzymam słowa (Y)
K* T=Y
Skłamię (~Y)
~Y=~K+~T=~K*~T+~K*T+K*~T
~K*~T=~Y
~K* T=~Y
K*~T=~Y
|
Kodując tą tabelę zgodnie ze zdaniem wypowiedzianym:
Y=K*T
czyli:
K=1, ~K=0
T=1, ~T=0
Y=1, ~Y=1
otrzymujemy zero-jedynkowa definicje operatora AND:
Kod: |
K T Y=K*T
Dotrzymam słowa (Y)
K* T=Y /1 1 =1
Skłamię (~Y)
~Y=~K+~T=~K*~T+~K*T+K*~T
~K*~T=~Y /0 0 =0
~K* T=~Y /0 1 =0
K*~T=~Y /1 0 =0
|
Definicja operatora AND w zapisie ogólnym:
Kod: |
p q Y=p*q
Dotrzymam słowa (Y)
1 1 =1 /Y=p*q
Skłamię (~Y)
~Y=~p+~q=~p*~q+~p*q+p*~q
0 0 =0 /~Y=~p*~q
0 1 =0 /~Y=~p*q
1 0 =0 /~Y=p*~q
|
Definicja operatora AND:
Operator AND to złożenie spójnika „i” w logice dodatniej (Y):
Dotrzymam słowa (Y):
Y=p*q
Y=1 <=> p=1 i q=1
oraz spójnika „lub” w logice ujemnej:
Skłamię (~Y):
~Y=~p+~q
~Y=1 <=> ~p=1 lub ~q=1
Związek logiki dodatniej i ujemnej:
Y=~(~Y)
Stąd z powyższej definicji mamy prawo de’Morgana:
p*q = ~(~p+~q)
Wniosek:
Prawo de ‘Morgana dla operatora AND to po prostu definicja operatora AND
Oczywiście operator logiczny to zupełnie co innego niż spójnik logiczny.
W technice cyfrowej definicję operatora AND realizuje bramka AND:
Kod: |
Bramka logiczna AND i jej układ zastępczy wynikający z prawa de’Morgana
p*q = ~(~p+~q)
O – symbol negatora (~)
p q
| |
| x-----------x
| | |
x-----------x |
| | | |
| | O O
------- -------
| | = | |
| AND | | OR |
------- -------
| O
| |
x-----------x
|
Y=p*q=~(~p+~q)
|
Tabela prawdy bramki AND:
Kod: |
p q Y=p*q
1 1 =1
0 0 =0
0 1 =0
1 0 =0
|
W świecie zewnętrznym układ zastępczy bramki AND jest niemożliwy do rozpoznania. Jeśli mamy czarną skrzynkę z kabelkami wejściowymi p i q oraz kabelkiem wyjściowym Y, to niemożliwe jest stwierdzenie jak układ bramki AND jest realizowany w rzeczywistości.
Ostatnio zmieniony przez rafal3006 dnia Wto 12:24, 26 Kwi 2011, w całości zmieniany 11 razy
|
|
Powrót do góry |
|
|
|
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35963
Przeczytał: 15 tematów
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Wto 12:05, 26 Kwi 2011 Temat postu: |
|
|
2.3 Gród krasnoludka Orandka
Zapewne wielu czytelników, na widok poniższego schematu ideowego przeżyje szok.
W naszym mózgu pracują najprawdziwsze krasnoludki !
Dlaczego krasnoludek ?
Mózg człowieka zbudowany jest z około 100mld neuronów połączonych …
Dla zrozumienia matematycznego fundamentu działania mózgu nie jest nam potrzebna szczegółowa analiza jego budowy.
Poznajmy pierwszego z nich, krasnoludka Orandka, obsługującego operator logiczny OR.
Jak widzimy na schemacie, z naszego abstrakcyjnego mózgu wystają dwa kabelki wejściowe p i q oraz jeden wyjściowy Y. Z zewnętrznego punktu odniesienia nie sposób rozszyfrować jak nasz mózg obsługuje w rzeczywistości operator logiczny OR. W świecie zewnętrznym jedyne co możemy stwierdzić to tabela prawdy operatora OR, nic więcej.
Tabela prawdy operatora OR (bramki OR):
Kod: |
p q Y=p+q
1 1 =1
1 0 =1
0 1 =1
0 0 =0
|
Zajrzyjmy do środka naszego mózgu i przyjrzyjmy się jak pracuje krasnoludek Orandek.
Kod: |
Rysunek A.
K T
| |
x--------------------------x
| | |
| x--------------------------x
| | | |
--------------- ----------------
| K T Y=K+T | | K T Y=K+T |
| 1 1 =1 | | 0 0 =0 | CZŁOWIEK
| 1 0 =1 | | |
| 0 1 =1 | | |
-------------- ---------------
| | | |
| | O O NEGATORY
K T ~K ~T
| | | |
------------------ ------------------
| | | |
| K T Y=K+T | | ~K ~T ~Y=~K*~T |
| 1 1 =1 | | 1 1 =1 |
| 1 0 =1 O | KRASNOLUDEK
| 0 1 =1 /|\ | ORANDEK
| A |
| Y=K+T ~Y=~K*~T |
| KOMNATA | | KOMNATA |
| PRAWDY | | FAŁSZU |
| OR | | AND |
------------------- ------------------
|Y=K+T |~Y=~K*~T
| O
| | Y=~(~K*~T)
x-------------------------x
|Y
V
Y=K+T=~(~K*~T)
-------------- ---------------
| K T Y=K+T | | K T Y=K+T |KOMNATA
| 1 1 =1 | | 1 1 =1 |PRAWDY
| 1 0 =1 | | 1 0 =1 |
| 0 1 =1 | | 0 1 =1 |
| | | ~K ~T ~Y=~K*~T|KOMNATA
| 0 0 =0 | | 1 1 =1 |FAŁSZU
-------------- ---------------
CZŁOWIEK KRASNOLUDEK
ORANDEK
GRÓD KRASNOLUDKA ORANDKA
Punkt odniesienia:
Y=K+T
|
Wynikowe zera i jedynki (Y, ~Y) nie są przynoszone w teczce, są generowane przez odpowiednie operatory logiczne na podstawie aktualnych sygnałów wejściowych p i q.
Z prawej strony na wyjściu bramki AND widzimy funkcję logiczną w logice ujemnej:
~Y=~K*~T
Funkcja w logice ujemnej jest tu wymuszona przez prawo de’Morgana, które nie może być zgwałcone. To jest bezpośredni dowód poprawności przejścia do logiki przeciwnej metodą przedszkolaka.
Mamy:
Y=K+T – zdanie wypowiedziane, dotrzymam słowa bo Y
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne:
~Y=~K*~T – skłamię bo ~Y
Jak pracuje krasnoludek Orandek ?
Wewnątrz naszego mózgu znajdują się luksusowo urządzone dwie komnaty, prawdy i fałszu, pomiędzy którymi Orandek przenosi się z szybkością światła znajdując odpowiedzi na kluczowe pytania:
Kiedy dotrzymam słowa ?
Kiedy skłamię ?
Orandek rozpoznaje komnatę prawdy po braku przeczenia przy funkcji Y, natomiast w komnacie fałszu funkcja jest zaprzeczona ~Y. Ten wężyk (~) to nic innego jak wąż-kusiciel z biblijnego drzewa poznania.
W świecie zewnętrznym, na wejściach K i T podajemy tabelę zero-jedynkową operatora OR. Zauważmy, że w komnacie fałszu, po negatorach, mamy zanegowane zarówno nazwy sygnałów wejściowych jak tez zanegowane wejściowe zera i jedynki. W laboratorium techniki cyfrowej łatwo sprawdzić, że tak właśnie jest.
Zadajemy krasnoludkowi pytanie.
Kiedy dotrzymam słowa ?
Orandek biegnie do komnaty prawdy którą rozpoznaje po braku przeczenia przy funkcji Y.
Natychmiastowa odpowiedź:
Kod: |
K T Y=K+T=K*T+K*~T+~K+T
1 1 =1 /Y=K*T
1 0 =1 /Y=K*~T
0 1 =1 /Y=~K*T
|
Dotrzymasz słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdziesz do kina (K=1) lub pójdziesz do teatru (T=1)
Y=1 <=>K=1 lub T=1
… a kiedy Orandku skłamię ?
Pracowity krasnoludek biegnie do komnaty fałszu i błyskawicznie odpowiada.
Kod: |
~K ~T ~Y=~K*~T
1 1 =1
|
Skłamiesz (~Y=1) wtedy i tylko wtedy gdy nie pójdziesz do kina (~K=1) i nie pójdziesz do teatru (~T=1)
~Y=1 <=> ~K=1 i ~T=1
Zauważmy, że tabela zero-jedynkowa operatora OR z punktu odniesienia krasnoludka wygląda fundamentalnie inaczej niż z punktu odniesienia człowieka (świat zewnętrzny). Porównajmy dwie tabele pod schematem ideowym. Rzeczywista praca Orandka jest dowodem, że mózg człowieka traktuje zdania:
Y=K+T
oraz:
~Y=~K*~T
jako zdania nowo wypowiedziane 1 1 =1.
Przeanalizujmy szczegółowo zdanie:
Jutro pójdę do kina lub do teatru
Y=K+T
widziane ze wszystkich możliwych punktów odniesienia.
Analiza I
Punkt odniesienia, krasnoludek Andorek
Y=K+T
A.
Jutro pójdę do kina lub do teatru
K+T=Y
1 1 =1
Zdanie AX matematycznie równoważne:
Y=K*T+K*~T+~K*T
czyli:
Dotrzymam słowa (Y) jeśli:
A.
jutro pójdę do kina i pójdę do teatru
K*T=Y
1 1 =1
lub
B.
pójdę do kina i nie pójdę do teatru
K*~T=Y
1 0 =1
lub
C.
nie pójdę do kina i pójdę do teatru
~K*T=Y
0 1 =1
Zera i jedynki wygenerowano dla punktu odniesienia zgodnego ze zdaniem wypowiedzianym A czyli:
K=1, ~K=0
T=1, ~T=0
Y=1, ~Y=0
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne
Zdanie wypowiedziane:
K+T=Y
stąd:
~K*~T=~Y
D.
Skłamię (~Y), jeśli jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~K*~T=~Y
1 1 =1
Stąd tabela zero-jedynkowa widziana oczami Orandka:
Kod: |
Analiza I
Dotrzymam słowa (Y)
Y=K+T=K*T+K*~T+~K*T
K T Y=K+T=K*T+K*~T+~K*T
A: 1 1 =1 /Y=K*T
B: 1 0 =1 /Y=K*~T
C: 0 1 =1 /Y=~K*T
Skłamię (~Y)
~K~T ~Y=~K*~T
D: 1 1 =1 /~Y=~K*~T
|
Układ równań logicznych dla powyższej tabeli:
Y=K+T
~Y=~K*~T
Oczywiście:
Y-dotrzymam słowa # ~Y-skłamię
Z ostatniego równania po dwustronnej negacji mamy:
Y=~(~K*~T)
stąd mamy prawo de’Morgana dla sumy logicznej:
Y=K+T=~(~K*~T)
Zauważmy 100% zgodność tej analizy z powyższym schematem ideowym, tak wygląda świat zewnętrzny widziany oczami naszego mózgu (krasnoludka).
Zobaczmy teraz to samo, obserwowane przez zewnętrznego obserwatora.
Analiza II
Punkt odniesienia (zdanie wypowiedziane), obserwator zewnętrzny:
Y=K+T
A.
Jutro pójdę do kina lub do teatru
K+T=Y
1 1 =1
Zdanie AX matematycznie równoważne:
Y=K*T+K*~T+~K*T
czyli:
Dotrzymam słowa (Y) jeśli:
A.
jutro pójdę do kina i pójdę do teatru
K*T=Y
1 1 =1
lub
B.
pójdę do kina i nie pójdę do teatru
K*~T=Y
1 0 =1
lub
C.
nie pójdę do kina i pójdę do teatru
~K*T=Y
0 1 =1
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne
Zdanie wypowiedziane:
K+T=Y
stąd:
~K*~T=~Y
D.
Skłamię (~Y), jeśli jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~K*~T=~Y
0 0 =0
Zera i jedynki wygenerowano dla punktu odniesienia zgodnego ze zdaniem wypowiedzianym A czyli:
K=1, ~K=0
T=1, ~T=0
Y=1, ~Y=0
Stąd tabela zero-jedynkowa widziana oczami obserwatora zewnętrznego:
Kod: |
Analiza II
Dotrzymam słowa (Y)
Y=K+T=K*T+K*~T+~K*T
K T Y=K+T=K*T+K*~T+~K*T
A: 1 1 =1 /Y=K*T
B: 1 0 =1 /Y=K*~T
C: 0 1 =1 /Y=~K*T
Skłamię (~Y)
~K~T ~Y=~K*~T
D: 0 0 =0 /~Y=~K*~T
|
Układ równań logicznych dla powyższej tabeli:
Y=K+T
~Y=~K*~T
Oczywiście:
Y-dotrzymam słowa # ~Y-skłamię
Z ostatniego równania po dwustronnej negacji mamy:
Y=~(~K*~T)
stąd mamy prawo de’Morgana dla sumy logicznej:
Y=K+T=~(~K*~T)
Przyjmijmy teraz za punkt odniesienia zdanie D z powyższej analizy, to zdanie wypowiadamy jako pierwsze.
Analiza III
Punkt odniesienia (zdanie wypowiedziane):
~Y=~K*~T
D.
Skłamię (~Y), jeśli jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~K*~T=~Y
1 1 =1
Punkt odniesienia, zdanie wypowiedziane D, wymusza kodowanie zer i jedynek w analizie matematycznej w następujący sposób:
~K=1, K=0
~T=1, T=0
~Y=1, Y=0
… a kiedy dotrzymam słowa ?
Przejście ze zdaniem D do logiki przeciwnej poprzez negacje zmiennych i wymianę operatorów na przeciwne.
Mamy:
~K*~T=~Y
stąd:
K+T=Y
czyli:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1) lub do teatru (T=1)
Y=1 <=> K=1 lub T=1
Szczegółowe rozwinięcie:
Y=K+T=K*T+K*~T+~K*T
stąd:
A.
Jutro pójdę do kina lub do teatru
K+T=Y
0 0 =0
Zdanie AX matematycznie równoważne:
Y=K*T+K*~T+~K*T
czyli:
Dotrzymam słowa (Y) jeśli:
A.
jutro pójdę do kina i pójdę do teatru
K*T=Y
0 0 =0
lub
B.
pójdę do kina i nie pójdę do teatru
K*~T=Y
0 1 =0
lub
C.
nie pójdę do kina i pójdę do teatru
~K*T=Y
1 0 =0
Zera i jedynki wygenerowano dla punktu odniesienia zgodnego ze zdaniem wypowiedzianym D czyli:
~K=1, K=0
~T=1, T=0
~Y=1, Y=0
Stąd tabela zero-jedynkowa widziana oczami obserwatora zewnętrznego:
Kod: |
Analiza III
Skłamię (~Y)
~K~T ~Y=~K*~T
D: 1 1 =1 /~Y=~K*~T
Dotrzymam słowa (Y)
Y=K+T=K*T+K*~T+~K*T
K T Y=K+T=K*T+K*~T+~K*T
A: 0 0 =0 /Y=K*T
B: 0 1 =0 /Y=K*~T
C: 1 0 =0 /Y=~K*T
|
Układ równań logicznych dla powyższej tabeli:
Y=K+T
~Y=~K*~T
Oczywiście:
Y-dotrzymam słowa # ~Y-skłamię
Z ostatniego równania po dwustronnej negacji mamy:
Y=~(~K*~T)
stąd mamy prawo de’Morgana dla sumy logicznej:
Y=K+T=~(~K*~T)
Wnioski:
1
W zerach i jedynkach, punkt odniesienia Orandka jest stały i niezmienny, niezależny od punktu odniesienia.
2.
Orandek operuje wyłącznie spójnikami logicznymi „lub” i „i”
Definicja spójnika „lub”
Y=p+q
Y=1 <=>p=1 lub q=1
Definicja zero-jedynkowa spójnika „lub” z punktu odniesienia krasnoludka:
Kod: |
p q Y=p+q
1 1 =1
1 0 =1
0 1 =1
|
Definicja spójnika „i”:
Y=p*q
Y=1 <=> p=1 i q=1
Definicja zero-jedynkowa spójnika ‘i” z punktu odniesienia krasnoludka:
3.
Zauważmy, że układ równań logicznych opisujących wszystkie trzy analizy jest identyczny i niezależny od punktu odniesienia, czyli bez znaczenia jest czy wybierzemy punkt odniesienia I, II czy tez III.
4.
Logika symboliczna w równaniach algebry Kubusia nie zależy od idiotycznych zer i jedynek.
5.
Zera i jedynki generowane na mocy równań algebry Kubusia zależą od przyjętego punktu odniesienia i nie mają wpływu na treść zdań, bo wypływają z treści zdań.
6.
We wszystkich trzech analizach I, II, i III zdania składowe są identyczne z dokładnością do każdej literki i każdego przecinka. Wynika z tego, że analizy I, II, i III są matematycznie równoważne.
CND
Na zakończenie schemat ideowy naszego mózgu dla punktu odniesienia:
~Y=~K*~T
Kod: |
Rysunek B.
~K ~T
| |
x--------------------------x |
| | |
| x--------------------------x
| | | |
---------------- -----------------
|~K ~T ~Y=~K*~T | |~K ~T ~Y=~K*~T |
| 0 0 =0 | | 1 1 =1 | CZŁOWIEK
| 0 1 =0 | | |
| 1 0 =0 | | |
-------------- ----------------
| | | |
O O NEGATORY | |
K T | |
| | | |
------------------ ------------------
| | | |
| K T Y=K+T | | ~K ~T ~Y=~K*~T |
| 1 1 =1 | | 1 1 =1 |
| 1 0 =1 O | KRASNOLUDEK
| 0 1 =1 /|\ | ORANDEK
| A |
| Y=K+T ~Y=~K*~T |
| KOMNATA | | KOMNATA |
| PRAWDY | | FAŁSZU |
| OR | | AND |
------------------- ------------------
|Y=K+T |~Y=~K*~T
O |
|~Y=~(K+T)=~K*~T |
x-------------------------x
|~Y
V
~Y=~(K+T)=~K*~T
---------------- ---------------
| ~K ~T ~Y=~K*~T | | ~K ~T ~Y=~K*~T|KOMNATA
| 1 1 =1 | | 1 1 =1 |FAŁSZU
| | | K T Y=K+T |KOMNATA
| 0 0 =0 | | 1 1 =1 |PRAWDY
| 0 1 =0 | | 1 0 =1 |
| 1 0 =0 | | 0 1 =1 |
---------------- ---------------
CZŁOWIEK KRASNOLUDEK
ORANDEK
GRÓD KRASNOLUDKA ORANDKA
Punkt odniesienia:
~Y=~K*~T
|
Wynikowe zera i jedynki (Y, ~Y) nie są przynoszone w teczce, są generowane przez odpowiednie bramki logiczne na podstawie aktualnych sygnałów wejściowych p i q.
Schematy z rysunku A i B są tożsame, bowiem w punkcie odniesienia zarówno człowieka, jak i krasnoludka Orandka (naszego mózgu) zdania opisywane przez operator OR są identyczne z dokładnością do każdej literki i każdego przecinka. Zauważmy, że w punkcie odniesienia krasnoludka tabele zero-jedynkowe na obu rysunkach też są identyczne, występuje wyłącznie przestawienie linii co w algebrze Kubusia jest bez znaczenia (w algebrze Boole’a także)
W zerach i jedynkach świat krasnoludka Orandka wygląda inaczej niż świat człowieka, ale w symbolicznych równaniach algebry Kubusia jest identyczny. Doskonale to widać porównując zdania składowe z analiz I (krasnoludek) oraz II i III (Człowiek) w analizach wyżej.
Ćwiczenie w laboratorium techniki cyfrowej:
Zbudować powyższe układy z rysunku A i B.
Sprawdzić wszystkie tabele zero-jedynkowe.
Pewne jest, że teoria musi się zgadzać w 100% z rzeczywistością, co jest dowodem istnienia krasnoludka Orandka w naszym mózgu.
2.4 Gród krasnoludka Andorka
Analogia do krasnoludka Orandka jest tu 100%.
Kod: |
Rysunek A.
K T
| |
x--------------------------x
| | |
| x--------------------------x
| | | |
--------------- ----------------
| K T Y=K*T | | K T Y=K*T |
| 1 1 =1 | | 0 0 =0 | CZŁOWIEK
| | | 0 1 =0 |
| | | 1 0 =0 |
-------------- ---------------
| | | |
| | O O NEGATORY
K T ~K ~T
| | | |
------------------ ------------------
| | | |
| K T Y=K*T | | ~K ~T ~Y=~K+~T |
| 1 1 =1 | | 1 1 =1 |
| O 1 0 =1 | KRASNOLUDEK
| /|\ 0 1 =1 | ANDOREK
| A |
| Y=K*T ~Y=~K+~T |
| KOMNATA | | KOMNATA |
| PRAWDY | | FAŁSZU |
| AND | | OR |
------------------- ------------------
|Y=K*T |~Y=~K+~T
| O
| | Y=~(~K+~T)
x-------------------------x
|Y
V
Y=K*T=~(~K+~T)
-------------- ---------------
| K T Y=K*T | | K T Y=K*T |KOMNATA
| 1 1 =1 | | 1 1 =1 |PRAWDY
| | | ~K ~T ~Y=~K+~T|
| 0 0 =0 | | 1 1 =1 |
| 0 1 =0 | | 1 0 =1 |KOMNATA
| 1 0 =0 | | 0 1 =1 |FAŁSZU
-------------- ---------------
CZŁOWIEK KRASNOLUDEK
ANDOREK
GRÓD KRASNOLUDKA ANDORKA
Punkt odniesienia:
Y=K*T
|
Z prawej strony na wyjściu bramki OR widzimy funkcję logiczną w logice ujemnej:
~Y=~K+~T
Funkcja w logice ujemnej jest tu wymuszona przez prawo de’Morgana, które nie może być zgwałcone. To jest bezpośredni dowód poprawności przejścia do logiki przeciwnej metodą przedszkolaka.
Mamy:
Y=K*T – zdanie wypowiedziane, dotrzymam słowa bo Y
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne:
~Y=~K+~T – skłamię bo ~Y
W świecie zewnętrznym na wejścia K i T podajemy tabelę zero-jedynkową operatora AND. Z prawej strony, po minięciu negatorów mamy dostęp wyłącznie do zanegowanych sygnałów wejściowych K i T, bezwzględne zera i jedynki tez będą tu odwrócone, to jest rzeczywistość którą widzimy z poziomu komnaty fałszu. Oczywiście komnatę fałszu krasnoludek Andorek rozpoznaje po zanegowanej funkcji logicznej (~Y). W komnacie prawdy, funkcja Y jest niezanegowana, na wejściu widzimy bezpośrednio sygnały K i T. W zerach i jedynkach, Andorek widzi otaczającą go rzeczywistość inaczej niż to widzi człowiek stojący na zewnątrz naszego mózgu, jednak w obu przypadkach zdania wynikłe z definicji operatora AND są identyczne z dokładnością do każdej literki i każdego przecinka (analizy I i II niżej).
Analiza I
Punkt odniesienia, krasnoludek Andorek
Y=K*T
A.
Jutro pójdę do kina i do teatru
K*T=Y
1 1 =1
… a kiedy skłamię ?
BX.
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne
~K+~T=~Y
Skłamię (~Y), jeśli jutro nie pójdę do kina lub nie pójdę do teatru
~K+~T=~Y
1 1 =1
Zdanie BX Andorek traktuje jako nowo wypowiedziane (nowy punkt odniesienia) czyli:
~K=1, K=0
~T=1, T=1
~Y=1, Y=0
Zdanie BX matematycznie równoważne:
~Y=~K*~T+~K*T+K*~T
czyli:
Skłamię (~Y) jeśli:
B.
nie pójdę do kina i nie pójdę do teatru
~K*~T=~Y
1 1 =1
lub
C.
nie pójdę do kina i pójdę do teatru
~K*T=~Y
1 0 =1
lub
D.
pójdę do kina i nie pójdę do teatru
K*~T=~Y
0 1 =1
Tabela zero-jedynkowa widziana oczami Andorka:
Kod: |
Analiza I
Dotrzymam słowa (Y)
K T Y=K*T
A: 1 1 =1 /Y=K*T
Skłamię (~Y)
~Y=~K+~T=~K*~T+~K*T+K*~T
~K~T ~Y=~K*~T
B: 1 1 =1 /~Y=~K*~T
C: 1 0 =1 /~Y=~K*T
D: 0 1 =1 /~Y=K*~T
|
Układ równań logicznych dla powyższej tabeli:
Y=K*T
~Y=~K+~T
Oczywiście:
Y-dotrzymam słowa # ~Y-skłamię
Z ostatniego równania po dwustronnej negacji mamy:
Y=~(~K+~T)
stąd mamy prawo de’Morgana dla iloczynu logicznego:
Y=K*T=~(~K+~T)
Zauważmy 100% zgodność tej analizy z powyższym schematem ideowym, tak wygląda świat zewnętrzny widziany oczami naszego mózgu.
Zobaczmy teraz to samo, obserwowane przez zewnętrznego obserwatora.
Analiza II
Punkt odniesienia (zdanie wypowiedziane):
Y=K*T
A.
Jutro pójdę do kina i do teatru
K*T=Y
1 1 =1
… a kiedy skłamię ?
BX.
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne
~K+~T=~Y
Skłamię (~Y), jeśli jutro nie pójdę do kina lub nie pójdę do teatru
~K+~T=~Y
W świecie zewnętrznym za punkt odniesienia przyjmujemy zdanie wypowiedziane A.
Zdanie BX matematycznie równoważne:
~Y=~K+~T=~K*~T+~K*T+K*~T
czyli:
Skłamię (~Y) jeśli:
B.
nie pójdę do kina i nie pójdę do teatru
~K*~T=~Y
0 0 =0
lub
C.
nie pójdę do kina i pójdę do teatru
~K*T=~Y
0 1 =0
lub
D.
pójdę do kina i nie pójdę do teatru
K*~T=~Y
1 0 =0
Dla kodowania z punktem odniesienia ustawionym na zdaniu wypowiedzianym A mamy tabelę zero-jedynkową operatora AND.
K=1, ~K=0
T=1, ~T=0
Y=1, ~Y=0
Kod: |
Analiza II
Dotrzymam słowa (Y)
K T Y=K*T
A: 1 1 =1 /Y=K*T
Skłamię (~Y)
~Y=~K+~T=~K*~T+~K*T+K*~T
B: 0 0 =0 /~Y=~K*~T
C: 0 1 =0 /~Y=~K*T
D: 1 0 =0 /~Y=K*~T
|
Układ równań logicznych dla powyższej tabeli:
Y=K*T
~Y=~K+~T
Oczywiście:
Y - dotrzymam słowa # ~Y - skłamię
Z ostatniego równania po dwustronnej negacji mamy:
Y=~(~K+~T)
stąd mamy prawo de’Morgana dla iloczynu logicznego:
Y=K*T=~(~K+~T)
Przyjmijmy teraz za punkt odniesienia zdanie BX z powyższej analizy, to zdanie wypowiadamy jako pierwsze.
Analiza III
Punkt odniesienia (zdanie wypowiedziane):
~Y=~K+~T
BX.
Skłamię (~Y), jeśli jutro nie pójdę do kina lub nie pójdę do teatru
~K+~T=~Y
1 1 =1
W świecie zewnętrznym za punkt odniesienia przyjmujemy zdanie wypowiedziane BX czyli:
~K=1, K=0
~T=1, T=0
~Y=1, Y=0
Zdanie BX matematycznie równoważne:
~Y=~K+~T=~K*~T+~K*T+K*~T
czyli:
Skłamię (~Y) jeśli:
B.
nie pójdę do kina i nie pójdę do teatru
~K*~T=~Y
1 1 =1
lub
C.
nie pójdę do kina i pójdę do teatru
~K*T=~Y
1 0 =1
lub
D.
pójdę do kina i nie pójdę do teatru
K*~T=~Y
0 1 =1
… a kiedy dotrzymam słowa ?
Przejście do logiki dodatniej poprzez negację zmiennych i wymianę operatorów na przeciwne.
Zdanie wypowiedziane:
~Y=~K+~T
stąd:
Y=K*T
czyli:
A.
Dotrzymam słowa (Y), jeśli jutro pójdę do kina i do teatru
K*T=Y
0 0 =0
Doskonale widać tabele zero-jedynkowa operatora OR dla kodowania zgodnego ze zdaniem wypowiedzianym BX:
~Y=~K+~T
Kod: |
Analiza III
Skłamię (~Y)
~Y=~K+~T=~K*~T+~K*T+K*~T
~K~T ~Y=~K+~T
B: 1 1 =1 /~Y=~K*~T
C: 1 0 =1 /~Y=~K*T
D: 0 1 =1 /~Y=K*~T
Dotrzymam słowa (Y)
K T Y=K*T
A: 0 0 =0 /Y=K*T
|
Układ równań logicznych dla powyższej tabeli:
Y=K*T
~Y=~K+~T
Oczywiście:
Y-dotrzymam słowa # ~Y-skłamię
Z ostatniego równania po dwustronnej negacji mamy:
Y=~(~K+~T)
stąd mamy prawo de’Morgana dla iloczynu logicznego:
Y=K*T=~(~K+~T)
Wnioski:
1
W zerach i jedynkach, punkt odniesienia Andorka jest stały i niezmienny, niezależny od punktu odniesienia.
2.
Andorek operuje wyłącznie spójnikami logicznymi „lub” i „i”
Definicja spójnika „lub”
Y=p+q
Y=1 <=>p=1 lub q=1
Definicja zero-jedynkowa spójnika „lub” z punktu odniesienia krasnoludka:
Kod: |
p q Y=p+q
1 1 =1
1 0 =1
0 1 =1
|
Definicja spójnika „i”:
Y=p*q
Y=1 <=> p=1 i q=1
Definicja zero-jedynkowa spójnika ‘i” z punktu odniesienia krasnoludka:
3.
Zauważmy, że układ równań logicznych opisujących wszystkie trzy analizy jest identyczny i niezależny od punktu odniesienia, czyli bez znaczenia jest czy wybierzemy punkt odniesienia I, II czy tez III.
4.
Logika symboliczna w równaniach algebry Kubusia nie zależy od idiotycznych zer i jedynek.
5.
Zera i jedynki generowane na mocy równań algebry Kubusia zależą od przyjętego punktu odniesienia i nie mają wpływu na treść zdań, bo wypływają z treści zdań.
6.
We wszystkich trzech analizach I, II, i III zdania składowe są identyczne z dokładnością do każdej literki i każdego przecinka. Wynika z tego, że analizy I, II, i III są matematycznie równoważne.
CND
Na zakończenie schemat ideowy naszego mózgu dla punktu odniesienia:
~Y=~K+~T
Kod: |
Rysunek A.
~K ~T
| |
x--------------------------x |
| | |
| x--------------------------x
| | | |
---------------- ----------------
|~K ~T ~Y=~K+~T | | ~K ~T ~Y=~K+~T |
| 0 0 =0 | | 1 1 =1 | CZŁOWIEK
| | | 1 0 =1 |
| | | 0 1 =1 |
---------------- -----------------
| | | |
O O NEGATORY | |
K T ~K ~T
| | | |
------------------ ------------------
| | | |
| K T Y=K*T | | ~K ~T ~Y=~K+~T |
| 1 1 =1 | | 1 1 =1 |
| O 1 0 =1 | KRASNOLUDEK
| /|\ 0 1 =1 | ANDOREK
| A |
| Y=K*T ~Y=~K+~T |
| KOMNATA | | KOMNATA |
| PRAWDY | | FAŁSZU |
| AND | | OR |
------------------- ------------------
|Y=K*T |~Y=~K+~T
O |
| ~Y=~(K*T) |
x-------------------------x
|
V
~Y=~K+~T=~(K*T)
--------------- ---------------
| ~K ~T ~Y=~K+~T| | ~K ~T ~Y=~K+~T|KOMNATA
| 1 1 =1 | | 1 1 =1 |FAŁSZU
| 1 0 =1 | | 1 0 =1 |
| 0 1 =1 | | 0 1 =1 |
| | | K T Y=K*T |KOMNATA
| 0 0 =0 | | 1 1 =1 |PRAWDY
--------------- ---------------
CZŁOWIEK KRASNOLUDEK
ANDOREK
GRÓD KRASNOLUDKA ANDORKA
Punkt odniesienia:
~Y=~T+~K
|
Doskonale widać że świat zer i jedynek w świecie zewnętrznym jest niezmienny, na wejściu oraz wyjściu mamy identyczne tabele zero-jedynkowe, to operator OR.
W zerach i jedynkach świat krasnoludka Andorka wygląda inaczej niż świat człowieka, ale w symbolicznych równaniach algebry Kubusia jest identyczny. Doskonale to widać porównując zdania składowe z analiz I (krasnoludek) i III (Człowiek) w analizach wyżej.
Ćwiczenie w laboratorium techniki cyfrowej:
Zbudować powyższe układy z rysunku A i B.
Sprawdzić wszystkie tabele zero-jedynkowe.
Pewne jest, że teoria musi się zgadzać w 100% z rzeczywistością, co jest dowodem istnienia krasnoludka Andorka w naszym mózgu.
3.0 Implikacja i równoważność w języku potocznym
W naturalnym języku mówionym, we wszelkich środkach masowego przekazu króluje implikacja, równoważność praktycznie nie występuje. Równoważność to przede wszystkim domena matematyki, tu jest bezcenna. Celem tego rozdziału jest przybliżenie czytelnikowi implikacji i równoważności widzianej oczami przedszkolaka, naturalnego eksperta algebry Kubusia. Oczywiście wszystko ma tu 100% pokrycie w matematyce ścisłej co zobaczymy w następnym rozdziale, gdzie poznamy matematyczny podkład zero-jedynkowy.
3.1 Spójniki „może ~>” i „musi =>”
Spójniki „może” i „musi” występują w zdaniach warunkowych „Jeśli…to…”.
Zdanie warunkowe:
Jeśli p to q
gdzie:
p – poprzednik
q – następnik
Przykład:
Jeśli jutro będzie padać to będzie pochmurno
P=>CH=1
jeśli jutro będzie padać to „na pewno” => będzie pochmurno
P=>CH=1
Powyższe dwa zdania są matematycznie równoważne.
Oczywiście symbol => oznacza:
=> - „na pewno” = „musi”
W języku mówionym spójnik „na pewno”=> jest domyślny i nie musi być wypowiadany
Spójnik „może” nie jest domyślny i musi być wypowiedziany
Przykład:
Jeśli jutro będzie pochmurno to „może” ~> padać
CH~>P=1 – sytuacja możliwa, zdanie prawdziwe
ale:
Jeśli jutro będzie pochmurno to „na pewno” => będzie padać
CH=>P=0 – bo nie ma takiej gwarancji
Zdanie oczywiście fałszywe.
Mamy tu naturalne znaczenie spójnika „musi” =>:
=> - gwarancja matematyczna
Udajmy się teraz do ekspertów implikacji, do przedszkola …
Pani:
Jeśli jutro będzie pochmurno to może ~> padać
CH~>P
Powiedzcie mi dzieci, czy chmury są warunkiem koniecznym aby jutro padało ?
Jas (lat5)
Tak proszę Pani, chmury są konieczne ~> aby jutro padało bo jak nie będzie chmur to na pewno => nie będzie padać
Prawo Kubusia:
CH~>P = ~CH=>~P
gdzie:
~> - warunek konieczny, chmury są konieczne ~> aby padało
=> - warunek wystarczający, brak chmur wystarcza aby nie padało
Warunki wystarczający i konieczny, to kluczowe pojęcia w algebrze Kubusia
Na podstawie powyższego łatwo sformułować drugie, symetryczne prawo Kubusia.
Jeśli jutro będzie padać to na pewno będzie pochmurno
P=>CH
… a jeśli jutro nie będzie padać ?
Jeśli jutro nie będzie padać to może ~> nie być pochmurno
~P~>~CH
stąd:
Symetryczne prawo Kubusia
~P~>~CH = P=>CH
gdzie:
~> - warunek konieczny, spójnik „może”, brak opadów jest warunkiem koniecznym aby jutro nie było pochmurno
=> - warunek wystarczający, spójnik „musi”=>, padanie deszczy wystarcza dla istnienia chmur
Znaczenie matematyczne praw Kubusia:
A.
CH~>P = ~CH=>~P
matematycznie oznacza to:
(CH~>P=1) = (~CH=>~P=1)
mamy wyżej tożsamość matematyczną czyli:
Jeśli zachodzi warunek konieczny CH~>P=1 to musi zachodzić warunek wystarczający ~CH=>~P=1.
czyli:
Twierdzenie ŚFINII:
Warunek konieczny CH~>P=1 zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik ~CH=>~P=1
B.
P=>CH = ~P~>~CH
co matematycznie oznacza:
(P=>CH=1) = (~P~>~CH=1)
mamy wyżej tożsamość matematyczną czyli:
Jeśli zachodzi warunek konieczny ~P~>~CH=1 to musi zachodzić warunek wystarczający P=>CH=1.
czyli:
Twierdzenie ŚFINII:
Warunek konieczny ~P~>~CH=1 zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik P=>CH=1.
Prawa Kubusia w zapisach ogólnych:
A.
p~>q = ~p=>~q
Jeśli zachodzi warunek konieczny p~>q to musi zachodzić warunek wystarczający ~p=>~q.
Twierdzenie ŚFINII:
Warunek konieczny p~>q=1 zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik ~p=>~q=1.
B.
p=>q = ~p~>~q
Jeśli zachodzi warunek konieczny ~p~>~q to musi zachodzić warunek wystarczający p=>q.
Twierdzenie ŚFINII:
Warunek konieczny ~p~>~q=1 zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik p=>q=1.
Doskonale widać, iż na mocy praw Kubusia całą logikę w zakresie warunków koniecznych ~> i wystarczających => możemy sprowadzić do łatwych w analizie warunków wystarczających =>.
3.2 Twierdzenie ŚFINII, spójnik „może” ~~>
Twierdzenie SFINII:
Warunek konieczny ~> zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.
p~>q = ~p=>~q – I prawo Kubusia
~p~>~q = p=>q – II prawo Kubusia
Dowód wyżej.
Działanie twierdzenia ŚFINII pokażemy na przykładach:
A.
Jeśli jutro będzie pochmurno to może padać
CH~>P=1 – sytuacja możliwa
Warunek konieczny zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik czyli:
Jeśli jutro nie będzie pochmurno to na pewno => nie będzie padać
CH~>P = ~CH=>~P=1
Oczywista prawda, zatem w zdani A zachodzi warunek konieczny.
B.
Jeśli jutro będzie pochmurno to może nie padać
CH~~>~P=1 – sytuacja możliwa
Z zanegowanego poprzednika musi wynikać zanegowany następnik czyli:
Jeśli jutro nie będzie pochmurno to na pewno => będzie padać
CH~>P = ~CH=>P=0
Oczywisty fałsz, stąd w zdaniu B nie zachodzi warunek konieczny:
CH~>~P=0
Zdanie B jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy jedna prawda
To jest powód konieczności wprowadzenia do logiki nowego symbolu:
~~> - naturalny spójnik „może”, wystarczy jeden przypadek prawdziwy, warunek konieczny tu nie zachodzi.
Wnioski z analiz A i B:
A.
Jeśli jutro będzie pochmurno to może padać
CH~>P=1 – sytuacja możliwa
Istnienie chmur jest warunkiem koniecznym aby padało
CH~>P=1
bo zabieramy chmury i wykluczmy padanie
B.
Jeśli jutro będzie pochmurno to może nie padać
CH~~>~P=1 – sytuacja możliwa
Istnienie chmur nie jest warunkiem koniecznym, aby nie padało
CH~~>~P=0
bo zabieramy chmury i dalej może nie padać
Dalsze przykłady:
C.
Jeśli liczba jest podzielna przez 2 to może być podzielna przez 8
P2~>P8=1 bo 8,16,24…
Z zanegowanego poprzednika musi wynikać zanegowany następnik, wtedy i tylko wtedy w zdaniu C zachodzi warunek konieczny, czyli:
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
P2~>P8 = ~P2=>~P8=1 bo 3,5,7…
Oczywista prawda, zatem w zdaniu C zachodzi warunek konieczny
D.
Jeśli liczba jest podzielna przez 2 to może nie być podzielna przez 8
P2~~>~P8=1 bo 2,4,6…
Warunek konieczny zachodzi gdy z zanegowanego poprzednika wynika zanegowany następnik, czyli:
Jeśli liczba nie jest podzielna przez 2 to na pewno => jest podzielna przez 8
P2~>~P8 = ~P2=>P8=0 bo 3
Wniosek:
W zdaniu D nie zachodzi warunek konieczny między p i q:
P2~>~P8=0
Zdanie to jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy jedna prawda
E.
Jeśli liczba nie jest podzielna przez 8 to może być podzielna przez 2
~P8~~>P2=1 bo 2,4,6…
Warunek konieczny zachodzi, gdy z zanegowanego poprzednika wynika zanegowany następnik, czyli:
Jeśli liczba jest podzielna przez 8 to na pewno => nie jest podzielna przez 2
~P8~>P2 = P8=>~P2=0 bo 8
Wniosek:
W zdaniu E nie zachodzi warunek konieczny
~P8~>P2=0
F.
Jeśli liczba nie jest podzielna przez 8 to może nie być podzielna przez 2
~P8~>~P2=1 bo 3,5,7…
Warunek konieczny zachodzi gdy z zanegowanego poprzednika wynika zanegowany następnik, czyli:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
~P8~>~P2 = P8=>P2=1 bo 8,16,24…
Wniosek:
W zdaniu F zachodzi warunek konieczny miedzy p i q
~P8~>~P2=1
G.
Jeśli liczba jest podzielna przez 8 to może być podzielna przez 2
P8~~>P2=1 bo 8
Warunek konieczny zachodzi, gdy z zanegowanego poprzednika wynika zanegowany następnik, czyli:
Jeśli liczba nie jest podzielna przez 8 to na pewno => nie jest podzielna przez 2
P8~>P2 = ~P8=>~P2=0 bo 2
Wniosek:
W zdaniu G nie zachodzi warunek konieczny
P8~>P2=0
Zdanie G jest prawdziwe na mocy naturalnego spójnik „może” ~~>, wystarczy jeden przypadek prawdziwy.
H.
Jeśli liczba jest podzielna przez 3 to może być podzielna przez 8
P3~~>P8=1 bo 24
Warunek konieczny zachodzi, gdy z zanegowanego poprzednika wynika zanegowany następnik, czyli:
Jeśli liczba nie jest podzielna przez 3 to na pewno nie jest podzielna przez 8
P3~>P8 = ~P3=>~P8=0 bo 8
Wniosek:
W zdaniu H nie zachodzi warunek konieczny:
P3~>P8=0
Zdanie G jest prawdziwe na mocy naturalnego spójnik „może” ~~>, wystarczy jeden przypadek prawdziwy.
Jak widzimy, twierdzenie ŚFINII, fundament algebry Kubusia, działa doskonale.
3.3 Rozstrzygnięcia o implikacji odwrotnej
Definicja implikacji odwrotnej to prawo Kubusia:
p~>q = ~p=>~q
Definicja implikacji odwrotnej równoważna:
Implikacja odwrotna p~>q to zachodzenie wyłącznie warunku koniecznego miedzy p i q
p~>q=1 – warunek konieczny w kierunku p~>q zachodzi
p=>q=0 – warunek wystarczający w kierunku p=>q nie zachodzi
A.
Jeśli liczba jest podzielna przez 2 to może być podzielna przez 8
P2~>P8=1
Na mocy twierdzenia śfinii warunek konieczny zachodzi gdy z zanegowanego poprzednika wynika zanegowany następnik czyli:
A1.
Jeśli liczba nie jest podzielna przez 2 to na pewno nie jest podzielna przez 8
P2~>P8 = ~P2=>~P8=1
Dla dowolnej liczby, jej niepodzielność przez 2 wystarcza dla niepodzielności przez 8
~P2 wystarcza dla ~P8
Zatem w zdaniu A warunek konieczny zachodzi.
Sprawdzamy teraz zachodzenie warunku p=>q dla zdania A:
Jeśli liczba jest podzielna przez 2 to na pewno => jest podzielna przez 8
P2=>P8=0 bo 2
Wniosek:
Zdanie A spełnia definicję implikacji odwrotnej bo:
P2~>P8=1
P2=>P8=0
CND
3.4 Rozstrzygnięcia o implikacji prostej
Definicja implikacji prostej to prawo Kubusia:
p=>q = ~p~>~q
Definicja implikacji prostej równoważna:
Implikacja prosta p=>q to zachodzenie wyłącznie warunku wystarczającego między p i q
p=>q=1 – warunek wystarczający w kierunku p=>q zachodzi
p~>q=0 – warunek konieczny w kierunku p~>q nie zachodzi
A.
Jeśli liczba jest podzielna przez 8 to na pewno jest podzielna przez 2
P8=>P2=1
Dla dowolnej liczby podzielnej przez 8 na pewno zachodzi jej podzielność przez 2
Zatem P8 wystarcza dla P2
CND
Sprawdzamy czy zachodzi warunek konieczny w kierunku P8~>P2:
A1.
Jeśli liczba jest podzielna przez 8 to może być podzielna przez 2
P8~>P2
Na mocy twierdzenia śfinii warunek konieczny zachodzi gdy z zanegowanego poprzednika wynika zanegowany następnik czyli:
A2.
Jeśli liczba nie jest podzielna przez 8 to na pewno nie jest podzielna przez 2
P8~>P2 = ~P8=>~P2 =0 bo 2
zatem w zdaniu A1 nie zachodzi warunek konieczny:
P8~>P2=0
Zdanie A1 jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy jedna prawda
P8~~>P2=1 bo 8
Dla zdania A mamy zatem:
P8=>P2=1
P8~>P2=0
Wniosek:
Zdanie A spełnia definicje implikacji prostej.
3.5 Rozstrzygnięcia o równoważności
Definicja równoważności:
p<=>q = (p=>q)*(p~>q) = (p=>q)* (~p=>~q)=1*1=1
Pierwsza część wzoru:
(p=>q)*(p~>q)=1*1=1
Oznacza że w równoważności musi być spełniony jednocześnie warunek wystarczający p=>q i konieczny p~>q.
W implikacji warunek konieczny to po prostu spójnik „może”. W równoważności o spójniku „może” nie ma mowy, tu wszystko musi być w 100% zdeterminowane, czyli jedyny poprawny spójnik to „musi” => i ta definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)
gdzie:
=> - warunek wystarczający, spójnik „musi” między p i q
Podsumowując:
W równoważności symbol ~> oznacza wyłącznie warunek konieczny, nie jest to spójnik „może” !
Definicja warunku koniecznego ~>:
Zabieramy p i musi zniknąć q czyli:
p~>q = ~p=>~q – I prawo Kubusia
~p~>~q = p=>q – II prawo Kubusia
Przykład:
Jeśli trójkąt jest prostokątny to na pewno => suma kwadratów przyprostokątnych jest równa kwadratowi przeciwprostokątnej
TP=>SK
Sprawdzamy czy między p i q zachodzi warunek konieczny:
TP~>SK = ~TP=>~SK
czyli:
Jeśli trójkąt nie jest prostokątny to na pewno => nie zachodzi suma kwadratów
~TP=>~SK=1 - oczywistość
Wniosek:
Trójkąt prostokątny jest konieczny aby zachodziła suma kwadratów
CND
Stąd definicja równoważna równoważności:
Równoważność <=> to jednoczesne zachodzenie warunku koniecznego i wystarczającego między p i q
p=>q=1 – warunek wystarczający w kierunku p=>q zachodzi
p~>q=1 – warunek konieczny w kierunku p~>q zachodzi
A.
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1
Oczywiście dla dowolnego trójkąta równobocznego na pewno zachodzą równe kąty
Zatem TR wystarcza dla KR
CND
Sprawdzamy teraz czy zachodzi warunek konieczny w kierunku TR~>KR:
A1
Na mocy twierdzenia ŚFINII warunek konieczny zachodzi gdy z zanegowanego poprzednika wynika zanegowany następnik czyli:
Jeśli trójkąt nie jest równoboczny to na pewno => nie ma katów równych
TR~>KR = ~TR=>~KR=1
Twarda prawda zatem warunek konieczny w kierunku TR~>KR zachodzi
Zatem dla zdania A mamy:
TR=>KR=1
TR~>KR=~TR=>~KR=1
Wniosek:
Zdanie A spełnia definicję równoważności
Oczywiście zdanie A możemy tez wypowiedzieć w następujący sposób:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(TR~>KR) = 1*1=1
gdzie:
TR=>KR=1 – spełniony warunek wystarczający w kierunku p=>q
TR~>KR=1 – spełniony warunek konieczny w kierunku p~>q
4.0 Implikacja w ujęciu matematycznym
W mowie potocznej każdy człowiek używa wyłącznie spójników „musi” i „może” w znaczeniu jak wyżej. Oczywiście nikt nie odróżnia dwóch rodzajów „może” (~> i ~~>), to zadanie dla matematyków, banalne zresztą. Spójnik „może” to w algebrze Boole’a najzwyklejsze „rzucanie monetą”. Z tego powodu w projektowaniu automatów cyfrowych (np. komputery) człowiek używa wyłącznie spójnika „musi” =>, posługując się naturalną logiką człowieka, algebrą Kubusia.
4.1 Zero-jedynkowe i bramkowe definicje implikacji
Zero-jedynkowa definicja implikacji prostej =>:
Kod: |
p q Y=p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Definicja implikacji prostej w operatorach AND i OR:
Y= p=>q = ~p+q = ~(~p*q)
gdzie:
=> - operator implikacji prostej (co innego niż spójnik logiczny „musi” !)
Dowód:
Twierdzenie Prosiaczka:
Równania algebry Boole’a dla dowolnej tabeli zero-jedynkowej n-elementowej tworzymy na podstawie linii z tą samą wartością logiczną w wyniku. Wszelkie nie opisane równaniem linie przyjmą wartości przeciwne do linii opisanych. Dla dowolnej tabeli zero-jedynkowej możliwe jest wygenerowanie ośmiu równań algebry Boole’a.
Definicja iloczynu logicznego:
Iloczyn logiczny n-zmiennych binarnych równy jest 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden
Y=A*~B*C …
czyli:
Y=1 <=> A=1 i ~B=1 i C=1 …
Najprostsze równanie algebry Boole’a dla powyższej tabeli otrzymamy dla drugiej linii gdyż w wyniku mamy tu samotne zero.
Mamy:
Y=0 <=> p=1 i q=0
W algebrze Boole’a zachodzi:
Jeśli Y=0 to ~Y=1
Jeśli q=0 to ~q=1
Stąd na podstawie definicji iloczynu logicznego mamy:
~Y=1 <=> p=1 i ~q=1
Opuszczamy jedynki otrzymując równanie algebry Boole’a
~Y = p*~q
Negując stronami i korzystając z prawa de’Morgana mamy:
Y = ~(p*~q) = ~p+q
Stąd otrzymujemy definicje implikacji odwrotnej w bramce logicznej:
Kod: |
p q
| |
-------
|O => |
| |
| OR |
-------
|
Y=~p+q
|
Gdzie:
O – symbol negatora (~)
Bramkowa definicja implikacji prostej to najzwyklejsza bramka OR z zanegowana w środku linią wejściowa p. Tabela prawdy dla powyższej bramki to po prostu zero-jedynkowa definicja implikacji prostej
Zero-jedynkowa definicja implikacji odwrotnej ~>:
Kod: |
p q Y=p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Definicja operatora implikacji odwrotnej w operatorach AND i OR
Y=p~>q = p+~q = ~(~p*q)
gdzie:
~> - operator implikacji odwrotnej (co innego niż spójnik logiczny „może” !)
Stąd otrzymujemy definicje implikacji odwrotnej w bramce logicznej:
Kod: |
p q
| |
-------
|~> O|
| |
| OR |
-------
|
Y=p+~q
|
Gdzie:
O – symbol negatora (~)
Bramkowa definicja implikacji odwrotnej to najzwyklejsza bramka OR z zanegowana w środku linią wejściowa q. Tabela prawdy dla powyższej bramki to po prostu zero-jedynkowa definicja implikacji prostej
Oczywiście na mocy definicji zero-jedynkowych mamy:
p=>q ## p~>q
gdzie:
## - fundamentalnie różne funkcje logiczne (na mocy definicji)
Dowód praw Kubusia w tabelach zero-jedynkowych:
Kod: |
Prawo Kubusia:
p=>q = ~p~>~q
p q p=>q ~p ~q ~p~>~q
1 1 =1 0 0 =1
1 0 =0 0 1 =0
0 0 =1 1 1 =1
0 1 =1 1 0 =1
|
Tożsamość kolumn trzeciej i ostatniej jest dowodem poprawności prawa Kubusia:
p=>q = ~p~>~q
Tą tożsamość widać też w inny sposób.
Pierwsze trzy kolumny to bramka implikacji prostej o wejściach p i q i wyjściu p=>q.
W kolejnych trzech kolumnach mamy bramkę implikacji odwrotnej ~> powstałą poprzez zanegowanie sygnałów wejściowych p i q w bramce p=>q i zanegowaniu wszystkich zer i jedynek wejściowych.
W sumie wprowadziliśmy do bramki p=>q po dwie negacje w każdą linie wejściowa a taki układ nie ma prawa ulec zmianie bo prawo podwójnego przeczenia:
p=~(~p)
gdzie:
~(…) – wprowadzenie negacji do nazwy sygnału
(~p) – negacja wszystkich zer i jedynek na tej linii
Zauważmy, że aby w układzie cyfrowym można było zewrzeć wyjścia, sygnały w trzeciej i ostatniej kolumnie musza być identyczne, stąd takie a nie inne jedynki i zera wynikowe w ostatniej kolumnie i dowód zachodzącej tożsamości matematycznej:
p=>q = ~p~>~q
Kod: |
Prawo Kubusia:
p~>q = ~p=>~q
p q p~>q ~p ~q ~p=>~q
1 1 =1 0 0 =1
1 0 =1 0 1 =1
0 0 =1 1 1 =1
0 1 =0 1 0 =0
|
Tożsamość kolumn trzeciej i ostatniej jest dowodem poprawności prawa Kubusia:
p~>q = ~p=>~q
Dowód praw Kubusia w bramkach logicznych:
p=>q = ~p~>~q
p~>q = ~p=>~q
Kod: |
Dowód prawa Kubusia:
p=>q = ~p~>~q
p q
| |
| x---------------x
| | |
x---------------x |
| | | |
| | O O
------- -------
| O => | | ~> O |
| | | |
| OR A| | OR B|
------- -------
|Y=p=>q | Y=~p~>~q
x---------------x
|
V
Y=p=>q = ~p~>~q
|
Doskonale widać, że jak zewnętrzne negacje w układzie B wepchniemy do środka bramki, to pojawi się negacja na wejściu p i zniknie na wejściu q na mocy prawa podwójnego przeczenia:
q=~(~q)=q
Będziemy mieli wówczas dwie identyczne bramki A, co jest dowodem poprawności prawa Kubusia.
Kod: |
Dowód prawa Kubusia:
p~>q = ~p=>~q
p q
| |
| x---------------x
| | |
x---------------x |
| | | |
| | O O
------- -------
| ~> O | | O => |
| | | |
| OR A| | OR B|
------- -------
|Y=p~>q | Y=~p=>~q
x---------------x
|
V
Y=p~>q = ~p=>~q
|
Doskonale widać, że jak zewnętrzne negacje w układzie B wepchniemy do środka bramki, to pojawi się negacja na wejściu q i zniknie na wejściu p na mocy prawa podwójnego przeczenia:
p=~(~p)=p
Będziemy mieli wówczas dwie identyczne bramki A, co jest dowodem poprawności prawa Kubusia.
4.2 Spójnik „musi” => między p i q, warunek wystarczający
Definicja operatorowa spójnika „musi” => w logice dodatniej (bo q niezanegowane):
Kod: |
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
|
Zera i jedynki wygenerowano dla punktu odniesienia p=>q czyli:
p=1, ~p=0
q=1, ~q=0
Dokładnie jak wyżej widzi zera i jedynki mózg człowieka, dowód za chwilę.
Gdzie:
=> - spójnik „musi” miedzy p i q, warunek wystarczający
Definicja słowna:
p=>q
Jeśli zajdzie p to musi zajść q
Wynika z tego że:
Zajście p i ~q jest niemożliwe, druga linia definicji
Wynika z tego że:
p jest warunkiem wystarczającym dla q
Przykład:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1 – oczywistość
1 1 =1
stąd:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>~P2=0
1 0 =0
Definicja operatorowa spójnika „musi” => w logice ujemnej (bo q zanegowane):
Kod: |
~p=>~q=1
1 1 =1
~p=>q=0
1 0 =0
|
Zera i jedynki wygenerowano dla punktu odniesienia ~p=>~q czyli:
~p=1, p=0
~q=1, q=0
Dokładnie jak wyżej widzi zera i jedynki mózg człowieka, dowód za chwilę.
Gdzie:
=> - spójnik „musi” miedzy p i q, warunek wystarczający
Definicja słowna:
~p=>~q
Jeśli zajdzie ~p to musi zajść ~q
Wynika z tego że:
Zajście ~p i q jest niemożliwe, druga linia definicji
Wynika z tego że:
~p jest warunkiem wystarczającym dla ~q
Przykład:
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8=1 – twarda prawda, zachodząca zawsze dla zbioru zdefiniowanego w poprzedniku
1 1 =1
stąd:
Jeśli liczba nie jest podzielna przez 2 to na pewno => jest podzielna przez 8
~P2=>P8=0
1 0 =0
4.3 Spójniki „może” ~> i „może”~~>
Definicja operatorowa spójnika „może” ~> w logice dodatniej (bo q niezanegowane):
Kod: |
p~>q=1
1 1 =1
p~~>~q=1
1 0 =1
|
Zera i jedynki wygenerowano dla punktu odniesienia p~>q czyli:
p=1, ~p=0
q=1, ~q=0
Dokładnie jak wyżej widzi zera i jedynki mózg człowieka, dowód za chwilę.
Gdzie:
~> - spójnik „może” ze spełnionym warunkiem koniecznym, czyli spełnionym prawem Kubusia:
p~>q = ~p=>~q
~~> - naturalne ‘może”, wystarczy pokazać jeden przypadek prawdziwy, warunek konieczny tu nie zachodzi
Definicja słowna:
p~>q
Jeśli zajdzie p to „może” zajść q
Dodatkowo musi być spełnione prawo Kubusia:
p~>q = ~p=>~q
Wtedy i tylko wtedy p jest warunkiem koniecznym dla q
Przykład:
Jeśli liczba jest podzielna przez 2 to „może” ~> być podzielna przez 8
P2~>P8=1=1 bo 8,16,24…
1 1 =1
lub
Jeśli liczba jest podzielna przez 2 to „może” ~~> nie być podzielna przez 8
P2~~>~P8=1 bo 2,4,6…
1 0 =1
Dodatkowo musi być spełnione prawo Kubusia:
P2~>P8 = ~P2=>~P8 =1 - oczywistość
~~> - naturalny spójnik „może” ~~>, wystarczy jedna prawda, warunek konieczny tu nie zachodzi
Definicja operatorowa:
p~~>q
Jeśli zajdzie p to „może” zajść q
Wystarczy znaleźć jeden przypadek prawdziwy
Przykład:
Jeśli liczba jest podzielna przez 3 to „może” ~~> być podzielna przez 8
P3~~>P8=1 bo 24
1 1 =1
Warunek konieczny tu nie zachodzi bo prawo Kubusia:
P3~>P8 = ~P3=>~P8=0 bo 8
czyli:
Jeśli liczba nie jest podzielna przez 3 to na pewno nie jest podzielna przez 8
~P3=>~P8=0 bo 8
Warunek wystarczający ~P3=>~P8=0, zatem na mocy prawa Kubusia wykluczony jest warunek konieczny w P3~>P8=0
Definicja operatorowa spójnika „może” ~> w logice ujemnej (bo q zanegowane):
Kod: |
~p~>~q=1
1 1 =1
~p~~>q=1
1 0 =1
|
Zera i jedynki wygenerowano dla punktu odniesienia ~p~>~q czyli:
~p=1, p=0
~q=1, q=0
Dokładnie jak wyżej widzi zera i jedynki mózg człowieka, dowód za chwilę.
Definicja słowna:
~p~>~q
Jeśli zajdzie ~p to „może” zajść ~q
Dodatkowo musi być spełnione prawo Kubusia:
~p~>~q = p=>q
Wtedy i tylko wtedy ~p jest warunkiem koniecznym dla ~q
Przykład:
Jeśli liczba nie jest podzielna przez 8 to może ~> nie być podzielna przez 2
~P8~>~P2=1 bo 3,5,7…
1 1 =1
lub
Jeśli liczba nie jest podzielna przez 8 to może ~> być podzielna przez 2
~P8~~>P2=1 bo 2,,4,6…
1 0 =1
Dodatkowo musi być spełnione prawo Kubusia:
~P8~>~P2 = P8=>P2 =1 - oczywistość
4.4 Prawa Kubusia na poziomie spójników logicznych
p=>q = ~p~>~q – prawo zamiany spójnika „musi” => na spójnik „może” ~>
p~>q = ~p=>~q – prawo zamiany spójnika „może” ~> na spójnik „musi” =>
gdzie:
=> - warunek wystarczający miedzy p i q, spójnik „musi”
~> - warunek konieczny między p i q, spójnik „może”
Interpretacja matematyczna.
Twierdzenie ŚFINII:
Warunek konieczny ~> między p i q zachodzi wtedy i tylko wtedy, gdy z zanegowanego poprzednika wynika => zanegowany następnik
Prawo Kubusia:
p~>q = ~p=>~q
~p~>~q = p=>q
Twierdzenie ŚFINII to najważniejsze twierdzenie w algebrze Kubusia, a wynika bezpośrednio z praw Kubusia.
Przykłady zastosowań:
A.
Jeśli jutro będzie pochmurno to może padać
CH~>P=1 – sytuacja możliwa
Warunek konieczny zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik czyli:
Jeśli jutro nie będzie pochmurno to na pewno => nie będzie padać
CH~>P = ~CH=>~P=1
Oczywista prawda, zatem w zdani A zachodzi warunek konieczny.
B.
Jeśli jutro będzie pochmurno to może nie padać
CH~~>~P=1 – sytuacja możliwa
Z zanegowanego poprzednika musi wynikać zanegowany następnik czyli:
Jeśli jutro nie będzie pochmurno to na pewno będzie padać
CH~>~P = ~CH=>P=0
Oczywisty fałsz, stąd w zdaniu B nie zachodzi warunek konieczny:
CH~>~P=0
Zdanie B jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy jedna prawda
4.5 Definicja operatora implikacji odwrotnej ~>
Operator implikacji odwrotnej to złożenie warunku koniecznego w logice dodatniej (spójnik „może” ~>) i warunku wystarczającego w logice ujemnej (spójnik „musi” =>)
Kod: |
p~>q=1
1 1 =1
p~~>~q=1
1 0 =1
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q
~p=>~q=1
1 1 =1
~p=>q=0
1 0 =0
|
W zerach i jedynkach jak wyżej widzi otaczający go świat nasz mózg, tak widzi świat zewnętrzny księżniczka Implikacji odwrotnej rezydująca w naszym mózgu.
Z punktu odniesienia świata zewnętrznego sytuacja wygląda inaczej.
W świecie zewnętrznym możemy ustawić punkt odniesienia na zdaniu:
p~>q czyli:
p=1, ~p=0
q=1, ~q=0
Wtedy otrzymujemy definicję operatorową implikacji odwrotnej:
Kod: |
Tabela A
p~>q=1
1 1 =1
p~~>~q=1
1 0 =1
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q
~p=>~q=1
0 0 =1
~p=>q=0
0 1 =0
|
Definicja zero-jedynkowa implikacji odwrotnej:
Kod: |
Tabela 1
p q p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Albo na punkcie odniesienia ~p=>~q, wtedy otrzymujemy definicje implikacji prostej:
~p=1, p=0
~q=1, q=0
Kod: |
Tabela B
~p=>~q=1
1 1 =1
~p=>q=0
1 0 =0
… a jeśli zajdzie p ?
Prawo Kubusia:
~p=>~q = p~>q
p~>q=1
0 0 =1
p~~>~q=1
0 1 =1
|
W algebrze Kubusia (w algebrze Boole’a także) linie w tabeli operatorowej możemy dowolnie przestawiać.
Zauważmy, że mimo powyższych przekształceń seria czterech zdań wynikająca ze zdania wypowiedzianego p~>q albo ~p=>~q jest identyczna z dokładnością do każdej literki i każdego przecinka, co jest dowodem zachodzenia prawa Kubusia na poziomie spójników.
CND
Wnioski:
1.
Prawo Kubusia dla spójnika implikacji odwrotnej to po prostu definicja operatora implikacji odwrotnej !
2.
Zauważmy, że spójnik definiowany jest dwoma liniami tabeli zero-jedynkowej, natomiast operator logiczny wszystkimi czteroma.
3.
Zdanie jest implikacja odwrotną wtedy i tylko wtedy gdy spełnia definicję operatorową implikacji odwrotnej, czyli wtedy i tylko wtedy gdy zachodzi prawo Kubusia dla spójnika „może” ~>.
Przykład:
Zdanie wypowiedziane:
A.
Jeśli zwierzę ma cztery łapy to może ~> być psem
4L~>P
Po pierwsze korzystając z twierdzenie SFINII rozstrzygamy czy to jest implikacja odwrotna
Definicja:
Zdanie jest implikacją odwrotną wtedy i tylko wtedy gdy między p i q zachodzi wyłącznie warunek konieczny
Twierdzenie ŚFINII:
Warunek konieczny między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik
4L~>P = ~4L=>~P=1 – prawo Kubusia
czyli:
A1.
Jeśli zwierzę nie ma czterech łap to na pewno nie jest psem
4L~>P = ~4L=>~P=1
Prawa strona jest twardym fałszem, zatem zdanie wypowiedziane spełnia warunek konieczny
Sprawdzamy teraz warunek wystarczający między p i q.
A2.
Jeśli zwierzę ma cztery łapy to na pewno => jest psem
4L=>P=0 bo słoń
Dla zdania wypowiedzianego mamy:
4L~>P=1 – zdanie spełnia warunek wystarczający
4L=>P=0 – warunek wystarczający nie zachodzi
Wniosek:
Zdanie wypowiedziane A to piękna implikacja odwrotna
To rozstrzygnięcie determinuje jednoznaczna tabelę zero-jedynkową implikacji odwrotnej.
Analiza matematyczna I:
A.
Jeśli zwierze ma cztery łapy to może ~> być psem
4L~>P=1 bo pies. Miękka prawda, może zajść ale nie musi
1 1 =1
LUB
B.
Jeśli zwierzę ma cztery łapy to może nie być psem
4L~~>~P=1 bo słoń, koń … Miękka prawda, może zajść ale nie musi
1 0 =1
… a jeśli zwierzę nie jest psem ?
Prawo Kubusia:
4L~>P = ~4L=>~P
czyli:
C.
Jeśli zwierze nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1 bo wąż, kura … Twarda prawda, zachodzi zawsze. Gwarancja matematyczna
0 0 =1
stąd:
D.
Jeśli zwierze nie ma czterech łap to na pewno => jest psem
~4L=>P=0 – twardy fałsz wynikły z powyższego
0 1 =0
Doskonale widać definicje implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
4L=1, ~4L=0
P=1, ~P=0
Zdanie B nie może być spójnikiem „może” ze spełnionym warunkiem koniecznym bo nie zachodzi prawo Kubusia:
4L~>~P = ~4L=>P=0
Prawa strona jest fałszem zatem lewa strona nie może być warunkiem koniecznym:
4L~>~P=0
Zdanie B jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy jeden przypadek prawdziwy.
Dla dowolnego losowania wyłącznie jedno z powyższych zdań będzie prawdziwe, pozostałe będą fałszywe. Dla nieskończonej ilości losowań, wszystkie pudełka będą pełne z wyjątkiem pudelka D, stąd taki a nie inny rozkład wynikowych jedynek.
Z prawa Kubusia wynika, że zdaniem tożsamym w stosunku do zdania 4L~>P jest zdanie ~4L=>~P.
Zamieniamy dwie pierwsze linie z dwoma ostatnimi i kodujemy całość zgodnie z nowym zdaniem wypowiedzianym ~4L=>~P.
Zdanie wypowiedziane:
C.
Jeśli zwierze nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1
Warunek wystarczający oczywiście zachodzi
Definicja:
Zdanie jest implikacja prosta wtedy i tylko wtedy gdy między pi q zachodzi wyłącznie warunek wystarczający.
Korzystając z twierdzenie ŚFINII sprawdzamy czy między p i q zachodzi warunek konieczny.
~4L~>~P = 4L=>P=0 bo słoń
C1.
Jeśli zwierze ma cztery łapy to na pewno => jest psem
4L=>P=0 bo słoń
Prawa strona jest fałszem zatem lewa strona musi być fałszem
Dla zdania wypowiedzianego mamy zatem:
~4L=>~P=1 – spełniony warunek wystarczający
~4L~>~P=0 – warunek konieczny nie zachodzi
Wniosek:
Na mocy definicji zdanie wypowiedziane jest implikacja prostą
To rozstrzygniecie determinuje tabelę zero-jedynkowa implikacji prostej.
Analiza matematyczna II:
C.
Jeśli zwierze nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1 bo wąż, kura … Twarda prawda, zachodzi zawsze. Gwarancja matematyczna
1 1 =1
stąd:
D.
Jeśli zwierze nie ma czterech łap to na pewno => jest psem
~4L=>P=0 – twardy fałsz wynikły z powyższego
1 0 =0
… a jeśli zwierzę ma cztery łapy ?
Prawo Kubusia:
~4L=>~P = 4L~>P
czyli:
A.
Jeśli zwierze ma cztery łapy to może ~> być psem
4L~>P=1 bo pies. Miękka prawda, może zajść ale nie musi
0 0 =1
LUB
B.
Jeśli zwierzę ma cztery łapy to może nie być psem
4L~~>~P=1 bo słoń, koń … Miękka prawda, może zajść ale nie musi
1 0 =1
Doskonale widać tabelę implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym ~4L=>~P czyli:
~4L=1, 4L=0
~P=1, P=0
Zauważmy, że w obu analizach I i II zdania składowe są identyczne z dokładnością do każdej literki i każdego przecinka, co jest dowodem zachodzenia prawa Kubusia na poziomie spójników implikacyjnych i operatorów logicznych.
Ostatnio zmieniony przez rafal3006 dnia Wto 12:25, 26 Kwi 2011, w całości zmieniany 1 raz
|
|
Powrót do góry |
|
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35963
Przeczytał: 15 tematów
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Wto 12:26, 26 Kwi 2011 Temat postu: |
|
|
4.6 Pałac księżniczki implikacji odwrotnej
Mało kto wie że w naszym mózgu żyją i pracują krasnoludki, kolejnym z nich jest księżniczka implikacji odwrotnej, urzędująca w dwóch bramkach logicznych „musi” => i „może” ~> przemienionych na komnaty „musi” i „może”, połączone korytarzem.
Księżniczka implikacja odwrotna
Kod: |
Analiza I
4L P
| |
x--------------------------x
| | |
| x--------------------------x
| | | |
--------------- ----------------
| 4L P 4L~>P | | 4L P 4L~>P |
| 1 1 =1 | | 0 0 =1 | CZŁOWIEK
| 1 0 =1 | | 0 1 =0 |
-------------- ---------------
| | | |
| | O O NEGATORY
4L P ~4L ~P
| | | |
------------------ ------------------
| O ~> | | O => |
| | | |
| 4L P 4L~>P | | ~4L ~P ~4L=>~P |
| 1 1 =1 O 1 1 =1 | KSIĘŻNICZKA
| 1 0 =1 /|\ 1 0 =0 | IMPLIKACJA
| A | ODWROTNA
| 4L~>P = ~4L=>~P |
| KOMNATA | | KOMNATA |
| MOŻE | | MUSI |
| OR | | OR |
------------------- ------------------
|4L~>P |~4L=>~P
| |
x-------------------------x
|
V
4L~>P
-------------- ---------------
| 4L P 4L~>P | | 4L P 4L~>P |KOMNATA
| 1 1 =1 | | 1 1 =1 |MOŻE
| 1 0 =1 | | 1 0 =1 |
| | |~4L ~P ~4L=>~P |KOMNATA
| 0 0 =1 | | 1 1 =1 |MUSI
| 0 1 =0 | | 1 0 =0 |
-------------- ---------------
CZŁOWIEK KSIĘŻNICZKA
IMPLIKACJA ODWROTNA
PAŁAC KSIĘŻNICZKI IMPLIKACJI ODWROTNEJ
Punkt odniesienia:
4L~>P
|
Z komnaty „może” księżniczka ma bezpośredni dostęp do wypowiedzianego zdania, bowiem nie ma tu wejściowych negatorów. Z komnaty „może” księżniczka widzi bezpośrednio wypowiedziane zdanie 4L~>P.
W komnacie „musi” księżniczka implikacji odwrotnej ma dostęp wyłącznie do zanegowanych p i q ze zdania wypowiedzianego 4L~>P. Po negatorach na wejściu bramki „musi” zera i jedynki też są odwrócone w stosunku do zer i jedynek w świecie zewnętrznym.
Jak pracuje księżniczka ?
W komnacie „może” obsługiwane jest zdanie wypowiedziane:
A.
Jeśli zwierze ma cztery łapy to może ~> być psem
4L~>P=1 bo pies
1 1 =1
lub
B.
Jeśli zwierzę ma cztery łapy to może nie być psem
4L~~>~P=1 bo słoń
1 0 =1
Jak widzimy zera i jedynki zgadzają się tu idealnie zarówno w świecie księżniczki jak i świecie człowieka.
Jeśli teraz 5-cio latek zapyta:
… a jeśli zwierze nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
To księżniczka z szybkością światła udaje się do komnaty „musi” bowiem tylko tu widzi zanegowany poprzednik ~4L. Piękna księżniczka nie ma teraz żadnych problemów z odpowiedzią na pytanie.
C.
Jeśli zwierze nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1 bo kura, mrówka …
1 1 =1
stąd:
D.
Jeśli zwierze nie ma czterech łap to na pewno => jest psem
~4L=>P=0 - fałsz
1 0 =0
Powyższy schemat to dowód, że nasz mózg traktuje zdania A i C jako dwa niezależne zdania nowo wypowiedziane. Z punktu widzenia świata zewnętrznego jedyne co możemy zaobserwować, to tabela zero-jedynkowa implikacji odwrotnej.
Jak udowodnić, że tak właśnie pracuje nasz mózg ?
Oczywiście w laboratorium układów cyfrowych.
Ćwiczenie:
Zbudować powyższy układ logiczny i sprawdzić tabele zero-jedynkowe z punktu odniesienia człowieka oraz z punktu odniesienia księżniczki implikacji odwrotnej.
Pewne jest, że rzeczywistość musi być w 100% zgodna z algebrą Kubusia.
Przerysujmy teraz powyższy schemat ideowy w taki sposób, by poprawnie obsługiwał zdanie wypowiedziane:
C.
Jeśli zwierze nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1 bo kura, mrówka …
Kod: |
Analiza II
~4L ~P
| |
x--------------------------x |
| | |
| x--------------------------x
| | | |
--------------- ----------------
|~4L ~P ~4L=>~P| |~4L ~P ~4L=>~P|
| 0 0 =1 | | 1 1 =1 | CZŁOWIEK
| 0 1 =1 | | 1 0 =0 |
-------------- ---------------
| | | |
O O | |
4L P ~4L ~P
| | | |
------------------ ------------------
| O ~> | | O => |
| | | |
| 4L P 4L~>P | | ~4L ~P ~4L=>~P |
| 1 1 =1 O 1 1 =1 | KSIĘŻNICZKA
| 1 0 =1 /|\ 1 0 =0 | IMPLIKACJA
| A | ODWROTNA
| 4L~>P = ~4L=>~P |
| KOMNATA | | KOMNATA |
| MOŻE | | MUSI |
| OR | | OR |
------------------- ------------------
|4L~>P |~4L=>~P
| |
x-------------------------x
|
V
4L~>P
-------------- ---------------
|~4L ~P ~4L=>P | |~4L ~P ~4L=>~P |KOMNATA
| 1 1 =1 | | 1 1 =1 |MUSI
| 1 0 =0 | | 1 0 =0 |
| | | 4L P 4L~>P |KOMNATA
| 0 0 =1 | | 1 1 =1 |MOŻE
| 0 1 =1 | | 1 0 =1 |
-------------- ---------------
CZŁOWIEK KSIĘŻNICZKA
IMPLIKACJA ODWROTNA
PAŁAC KSIĘŻNICZKI IMPLIKACJI ODWROTNEJ
Punkt odniesienia:
~4L=>~P
|
Jak widzimy, księżniczka tym razem widzi bezpośrednio sygnały ~4L i ~P w komnacie „musi”.
Z komnaty „może” widoczne są zanegowane sygnały czyli 4L i P. Zera i jedynki w komnacie „może” tez są odwrócone w stosunku do zer i jedynek wejściowych, bo negatory.
Tym razem zdanie wypowiedziane obsługiwane jest w komnacie „musi”.
C.
Jeśli zwierze nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1 bo kura, mrówka …
1 1 =1
stąd:
D.
Jeśli zwierze nie ma czterech łap to na pewno => jest psem
~4L=>P=0 - fałsz
1 0 =0
Jak widzimy zera i jedynki zgadzają się tu idealnie zarówno w świecie księżniczki jak i świecie człowieka.
… a jeśli zwierze ma cztery łapy ?
Prawo Kubusia:
~4L=>~P = 4L~>P
Oczywiście odpowiedź na to pytanie znajduje się w komnacie „może” i tu udaje się nasza księżniczka.
A.
Jeśli zwierze ma cztery łapy to może być psem
4L~>P=1 bo pies
1 1 =1
lub
B.
Jeśli zwierzę ma cztery łapy to może nie być psem
4L~~>~P=1 bo słoń, koń …
1 0 =1
W komnacie „może” księżniczka widzi odwrócone wejściowe zera i jedynki w stosunku do człowieka. Tym razem w świecie człowieka generowana jest tabela zero-jedynkowa operatora implikacji prostej.
Z analiz I i II doskonale widać, że świat księżniczki implikacji odwrotnej jest niezmienny, czyli w obu przypadkach w zerach i jedynkach oraz sygnałach widziany identycznie. W świecie człowieka w analizie I widzimy tabelę zero-jedynkowa implikacji odwrotnej, natomiast w analizie II tabelę zero-jedynkową implikacji prostej.
Zdania rzeczywiste wynikłe z analiz I i II są identyczne z dokładnością do każdej literki i każdego przecinka, co jest dowodem poprawności prawa Kubusia oraz Istnienia krasnoludków w naszym mózgu
4.7 Definicja operatora implikacji prostej
Operator implikacji prostej to złożenie warunku wystarczającego w logice dodatniej (spójnik „musi”=>) i warunku koniecznego w logice ujemnej (spójnik „może ~>)
Kod: |
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q = ~p~>~q
~p~>~q=1
1 1 =1
~p~~>q=1
1 0 =1
|
W zerach i jedynkach jak wyżej widzi otaczający go świat nasz mózg, tak widzi świat zewnętrzny księżniczka Implikacji prostej rezydująca w naszym mózgu.
Z punktu odniesienia świata zewnętrznego sytuacja wygląda inaczej.
W świecie zewnętrznym możemy ustawić punkt odniesienia na zdaniu:
p=>q
czyli:
p=1, ~p=0
q=1, ~q=0
Wtedy otrzymujemy definicję operatorową implikacji prostej:
Kod: |
Tabela A
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q = ~p~~>~q
~p~>~q=1
0 0 =1
~p~~>q=1
0 1 =1
|
Definicja zero-jedynkowa implikacji prostej:
Kod: |
Tabela 1
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Albo na punkcie odniesienia ~p~>~q, wtedy otrzymujemy definicje implikacji odwrotnej:
~p=1, p=0
~q=1, q=0
Kod: |
Tabela B
~p~>~q=1
1 1 =1
~p~~>q=1
1 0 =1
… a jeśli zajdzie p ?
Prawo Kubusia:
~p~>~q = p=>q
p=>q=1
0 0 =1
p=>~q=0
0 1 =0
|
W algebrze Kubusia (w algebrze Boole’a także) linie w tabeli operatorowej możemy dowolnie przestawiać.
Stąd tabela zero-jedynkowa implikacji odwrotnej dla punktu odniesienia ~p~>~q:
Kod: |
Tabela 2
~p ~q ~p~>~q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Zauważmy, że mimo powyższych przekształceń seria czterech zdań wynikająca ze zdania wypowiedzianego p~>q albo ~p=>~q jest identyczna z dokładnością do każdej literki i każdego przecinka, co jest dowodem zachodzenia prawa Kubusia na poziomie spójników i operatorów.
CND
Wnioski:
1.
Prawo Kubusia dla spójnika implikacji prostej to po prostu definicja operatora implikacji prostej !
2.
Zauważmy, że spójnik definiowany jest dwoma liniami tabeli zero-jedynkowej, natomiast operator logiczny wszystkimi czteroma.
3.
Zdanie jest implikacją prostą wtedy i tylko wtedy gdy spełnia definicję operatorową implikacji prostej, czyli wtedy i tylko wtedy gdy zachodzi prawo Kubusia dla spójnika „musi”=>.
Przykład:
Zdanie wypowiedziane:
A.
Jeśli zwierze jest psem to na pewno => ma cztery łapy
P=>4L=1
Bycie psem wystarcza aby mieć cztery łapy
Korzystając z twierdzenie SFINII rozstrzygamy czy to jest implikacja prosta
Definicja:
Zdanie jest implikacją prostą wtedy i tylko wtedy gdy między p i q zachodzi wyłącznie warunek wystarczający
Twierdzenie ŚFINII:
Warunek konieczny między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik
P~>4L = ~P=>~4L=0 bo słoń – prawo Kubusia
czyli:
A1.
Jeśli zwierze nie jest psem to na pewno => nie ma czterech łap
~P=>~4L=0 bo słoń
Prawa strona jest twardym fałszem, zatem zdanie wypowiedziane nie spełnia warunku koniecznego.
Dla zdania wypowiedzianego mamy zatem:
P=>4L=1 – warunek wystarczający spełniony
P~>4L=0 – warunek konieczny nie spełniony
Wniosek:
Zdanie wypowiedziane A to piękna implikacja prosta
To rozstrzygnięcie determinuje jednoznaczna tabelę zero-jedynkową implikacji prostej.
Analiza matematyczna I:
A.
Jeśli zwierze jest psem to na pewno => ma cztery łapy
P=>4L=1 – gwarancja matematyczna
1 1 =1
stąd:
B.
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L=0
1 0 =0
… a jeśli zwierzę nie jest psem ?
Prawo Kubusia:
P=>4L = ~P~>~4L
czyli:
C.
Jeśli zwierze nie jest psem to może ~> nie mieć czterech łap
~P~>~4L=1 bo kura
0 0 =1
lub
D.
Jeśli zwierze nie jest psem to może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń
0 1 =1
Doskonale widać definicje implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
4L=1, ~4L=0
P=1, ~P=0
Zdanie D nie może być spójnikiem „może” ze spełnionym warunkiem koniecznym bo nie zachodzi prawo Kubusia:
~P~>4L=P=>~4L=0
Prawa strona jest fałszem zatem lewa strona nie może być warunkiem koniecznym:
~P~>4L=0
Zdanie D jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy jeden przypadek prawdziwy.
Dla dowolnego losowania wyłącznie jedno z powyższych zdań będzie prawdziwe, pozostałe będą fałszywe. Dla nieskończonej ilości losowań, wszystkie pudełka będą pełne z wyjątkiem pudelka B, stąd taki a nie inny rozkład wynikowych jedynek.
Z prawa Kubusia wynika, że zdaniem tożsamym w stosunku do zdania P=>4L jest zdanie ~P~>~4L.
Zamieniamy dwie pierwsze linie z dwoma ostatnimi i kodujemy całość zgodnie z nowym zdaniem wypowiedzianym ~P~>~4L.
Zdanie wypowiedziane:
C.
Jeśli zwierzę nie jest psem to może~> nie mieć czterech łap
~P~>~4L=1
Sprawdzamy czy to zdanie jest implikacja odwrotną.
Definicja:
Zdanie jest implikacja odwrotną wtedy i tylko wtedy gdy między pi q zachodzi wyłącznie warunek konieczny.
Korzystając z twierdzenie ŚFINII sprawdzamy czy między p i q zachodzi warunek konieczny.
~P~>~4L = P=>4L=1
C1.
Jeśli zwierze jest psem to na pewno => ma cztery łapy
P=>4L=1
Prawa strona jest prawdą zatem w zdaniu ~P~>~4L zachodzi warunek konieczny
Sprawdzamy czy w zdaniu C między p i q zachodzi warunek wystarczający
C2.
Jeśli zwierze nie jest psem to na pewno => nie ma czterech łap
~P=>~4L=0 bo słoń
Dla zdania wypowiedzianego mamy zatem:
~P~>~4L=1 – warunek konieczny spełniony
~P=>~4L=0 – warunek wystarczający nie spełniony
Wniosek:
Na mocy definicji zdanie wypowiedziane C jest implikacja odwrotną
To rozstrzygniecie determinuje tabelę zero-jedynkowa implikacji odwrotnej.
Analiza matematyczna II:
C.
Jeśli zwierze nie jest psem to może ~> nie mieć czterech łap
~P~>~4L=1 bo kura
1 1 =1
lub
D.
Jeśli zwierze nie jest psem to może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń
1 0 =1
… a jeśli zwierze jest psem ?
Prawo Kubusia:
~P~>~4L=P=>4L
A.
Jeśli zwierze jest psem to na pewno => ma cztery łapy
P=>4L=1 – gwarancja matematyczna
0 0 =1
stąd:
B.
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L=0
0 1 =0
Doskonale widać definicje implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
~4L=1, 4L=0
~P=1, P=0
Zauważmy, że w obu analizach I i II zdania składowe są identyczne z dokładnością do każdej literki i każdego przecinka, co jest dowodem zachodzenia prawa Kubusia na poziomie spójników implikacyjnych i operatorów logicznych.
4.8 Pałac księżniczki implikacji prostej
Mało kto wie że w naszym mózgu żyją i pracują krasnoludki, kolejnym z nich jest księżniczka implikacji prostej, urzędująca w dwóch bramkach logicznych „musi” => i „może” ~> przemienionych na komnaty „musi” i „może”, połączone korytarzem.
Księżniczka implikacja prosta
Kod: |
Analiza I
P 4L
| |
x--------------------------x
| | |
| x--------------------------x
| | | |
--------------- ----------------
| P 4L P=>4L | | P 4L P=>4L |
| 1 1 =1 | | 0 0 =1 | CZŁOWIEK
| 1 0 =0 | | 0 1 =1 |
-------------- ---------------
| | | |
| | O O NEGATORY
P 4L ~P ~4L
| | | |
------------------ ------------------
| O => | | O ~> |
| | | |
| P 4L P=>4L | | ~P ~4L ~P~>~4L |
| 1 1 =1 O 1 1 =1 | KSIĘŻNICZKA
| 1 0 =0 /|\ 1 0 =1 | IMPLIKACJA
| A | PROSTA
| 4L=>P = ~4L~>~P |
| KOMNATA | | KOMNATA |
| MUSI | | MOŻE |
| OR | | OR |
------------------- ------------------
|P=>4L |~P~>~4L
| |
x-------------------------x
|
V
P=>4L=~P~>~4L
-------------- ---------------
| P 4L P=>4L | | P 4L P=>4L |KOMNATA
| 1 1 =1 | | 1 1 =1 |MUSI
| 1 0 =0 | | 1 0 =0 |
| | | ~P ~4L ~P~>~4L|KOMNATA
| 0 0 =1 | | 1 1 =1 |MOŻE
| 0 1 =1 | | 1 0 =1 |
-------------- ---------------
CZŁOWIEK KSIĘŻNICZKA
IMPLIKACJA PROSTA
PAŁAC KSIĘŻNICZKI IMPLIKACJI PROSTEJ
Punkt odniesienia:
P=>4L
|
Z komnaty „musi” księżniczka ma bezpośredni dostęp do wypowiedzianego zdania, bowiem nie ma tu wejściowych negatorów. Z tej komnaty księżniczka widzi bezpośrednio wypowiedziane zdanie P=>4L.
W komnacie „może” księżniczka implikacji prostej ma dostęp wyłącznie do zanegowanych ~P i ~4L ze zdania wypowiedzianego P=>4L. Po negatorach na wejściu bramki „może” zera i jedynki też są odwrócone w stosunku do zer i jedynek w świecie zewnętrznym.
Jak pracuje księżniczka ?
W komnacie „musi” obsługiwane jest zdanie wypowiedziane:
A.
Jeśli zwierze jest psem to na pewno => ma cztery łapy
P=>4L=1 – gwarancja matematyczna
1 1 =1
stąd:
B.
Jeśli zwierze jest psem to na pewno => nie ma czterech łap
P=>~4L=0
1 0 =0
Jak widzimy zera i jedynki zgadzają się tu idealnie zarówno w świecie księżniczki jak i świecie człowieka.
Jeśli teraz 5-cio latek zapyta:
… a jeśli zwierze nie jest psem ?
Prawo Kubusia:
P=>4L = ~P~>~4L
To księżniczka z szybkością światła udaje się do komnaty „może” bowiem tylko tu widzi zanegowany poprzednik ~P. Piękna księżniczka nie ma teraz żadnych problemów z odpowiedzią na pytanie.
C.
Jeśli zwierze nie jest psem to może ~> nie mieć czterech łap
~P~>~4L=1 bo kura, mrówka …
1 1 =1
lub
D.
jeśli zwierze nie jest psem to może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń
1 0 =1
Powyższy schemat to dowód, że nasz mózg traktuje zdania A i C jako dwa niezależne zdania nowo wypowiedziane. Z punktu widzenia świata zewnętrznego jedyne co możemy zaobserwować, to tabela zero-jedynkowa implikacji prostej.
Jak udowodnić, że tak właśnie pracuje nasz mózg ?
Oczywiście w laboratorium układów cyfrowych.
Ćwiczenie:
Zbudować powyższy układ logiczny i sprawdzić tabele zero-jedynkowe z punktu odniesienia człowieka oraz z punktu odniesienia księżniczki implikacji prostej.
Pewne jest, że rzeczywistość musi być w 100% zgodna z algebrą Kubusia.
Przerysujmy teraz powyższy schemat ideowy w taki sposób, by poprawnie obsługiwał zdanie wypowiedziane:
C.
Jeśli zwierze nie jest psem to może ~> nie mieć czterech łap
~P~>~4L=1 bo kura
Kod: |
Analiza II
~P ~4L
| |
x--------------------------x |
| | |
| x--------------------------x
| | | |
--------------- ----------------
|~P ~4L ~P~>~4L| |~P ~4L ~P~>~4L|
| 0 0 =1 | | 1 1 =1 | CZŁOWIEK
| 0 1 =0 | | 1 0 =1 |
-------------- ---------------
| | | |
O O NEGATORY | |
P 4L ~P ~4L
| | | |
------------------ ------------------
| O => | | O ~> |
| | | |
| P 4L P=>4L | | ~P ~4L ~P~>~4L |
| 1 1 =1 O 1 1 =1 | KSIĘŻNICZKA
| 1 0 =0 /|\ 1 0 =1 | IMPLIKACJA
| A | PROSTA
| 4L=>P = ~4L~>~P |
| KOMNATA | | KOMNATA |
| MUSI | | MOŻE |
| OR | | OR |
----------------- -----------------
|P=>4L |~P~>~4L
| |
x-------------------------x
|
V
~P~>~4L=P=>4L
-------------- ---------------
| ~P ~4L ~P~>~4L| | ~P ~4L ~P~>~4L|KOMNATA
| 1 1 =1 | | 1 1 =1 |MOŻE
| 1 0 =1 | | 1 0 =1 |
| | | P 4L P=>4L |KOMNATA
| 0 0 =1 | | 1 1 =1 |MUSI
| 0 1 =0 | | 1 0 =0 |
-------------- ---------------
CZŁOWIEK KSIĘŻNICZKA
IMPLIKACJA PROSTA
PAŁAC KSIĘŻNICZKI IMPLIKACJI PROSTEJ
Punkt odniesienia:
~P~>~4L
|
Jak widzimy, księżniczka tym razem widzi bezpośrednio sygnały ~P i ~4L w komnacie „m0że”.
Z komnaty „musi” widoczne są zanegowane sygnały czyli P i 4L. Zera i jedynki w komnacie „musi” tez są odwrócone w stosunku do zer i jedynek wejściowych, bo negatory.
Tym razem zdanie wypowiedziane obsługiwane jest w komnacie „może”.
C.
Jeśli zwierze nie jest psem to może ~> nie mieć czterech łap
~P~>~4L=1 bo kura, mrówka …
1 1 =1
lub
D.
jeśli zwierze nie jest psem to może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń, koń …
1 0 =1
Jak widzimy w komnacie „może” zera i jedynki zgadzają się idealnie zarówno w świecie księżniczki jak i świecie człowieka.
… a jeśli zwierzę jest psem ?
Prawo Kubusia:
~P~>~4L = P=>4L
Oczywiście odpowiedź na to pytanie znajduje się w komnacie „musi” i tu udaje się nasza księżniczka.
A.
Jeśli zwierze jest psem to na pewno => ma cztery łapy
P=>4L=1 – gwarancja matematyczna
1 1 =1
stąd:
B.
Jeśli zwierze jest psem to na pewno => nie ma czterech łap
P=>~4L=0 – twardy fałsz
1 0 =0
W komnacie „musi” księżniczka widzi odwrócone wejściowe zera i jedynki w stosunku do człowieka, bo negatory.
Tym razem w świecie człowieka generowana jest tabela zero-jedynkowa implikacji odwrotnej.
Z analiz I i II doskonale widać, że świat księżniczki implikacji prostej jest niezmienny, czyli w obu przypadkach w zerach i jedynkach oraz sygnałach widziany identycznie. W świecie człowieka w analizie I widzimy tabelę zero-jedynkowa implikacji prostej, natomiast w analizie II tabelę zero-jedynkową implikacji odwrotnej.
Zdania rzeczywiste wynikłe z analiz I i II są identyczne z dokładnością do każdej literki i każdego przecinka, co jest dowodem poprawności prawa Kubusia oraz Istnienia krasnoludków w naszym mózgu
5.0 Definicja równoważności <=>
Równoważność to fundamentalnie co innego niż implikacja na mocy definicji zero-jedynkowej.
Definicja zero-jedynkowa równoważności:
Kod: |
p q p<=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =0
|
Równoważność to złożenie warunku wystarczającego w logice dodatniej (q niezanegowane) i ponownie warunku wystarczającego w logice ujemnej (q zanegowane)
Definicja operatorowa równoważności:
P<=>q = (p=>q)*(~p=>~q)
Analiza operatorowa:
Kod: |
p<=>q = (p=>q)*(~p=>~q)
Warunek wystarczający w logice dodatniej (bo q)
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
~p<=>~q = (~p=>~q)*(p=>q)
stąd:
Warunek wystarczający w logice ujemnej (bo ~q)
~p=>~q=1
1 1 =1
~p=>q=0
1 0 =0
|
Tak jak wyżej, w zerach i jedynkach widzi świat zewnętrzny nasz mózg, czyli kolejny krasnoludek, książę Równoważności.
Z punktu odniesienia świata zewnętrznego punkt odniesienia możemy ustawić na zdaniu p<=>q lub na zdaniu ~p<=>~q, to bez znaczenia, zawsze otrzymamy tabelę zero-jedynkowa równoważności.
Świat zewnętrzny – punkt odniesienia p<=>q
Kod: |
p<=>q = (p=>q)*(~p=>~q)
Warunek wystarczający w logice dodatniej (bo q)
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
~p<=>~q = (~p=>~q)*(p=>q)
stąd:
Warunek wystarczający w logice ujemnej (bo ~q)
~p=>~q=1
0 0 =1
~p=>q=0
0 1 =0
|
Doskonale widać tabele zero-jedynkową równoważności dla kodowania zgodnego ze zdaniem wypowiedzianym p<=>q czyli:
p=1, ~p=0
q=1, ~q=0
Świat zewnętrzny – punkt odniesienia ~p<=>~q
Kod: |
~p<=>~q = (~p=>~q)*(p=>q)
stąd:
Warunek wystarczający w logice ujemnej (bo ~q)
~p=>~q=1
1 1 =1
~p=>q=0
1 0 =0
p<=>q = (p=>q)*(~p=>~q)
Warunek wystarczający w logice dodatniej (bo q)
p=>q=1
0 0 =1
p=>~q=0
0 1 =0
|
Doskonale widać identyczną tabelę zero-jedynkową równoważności dla kodowania zgodnego ze zdaniem wypowiedzianym ~p<=>~q czyli:
~p=1, p=0
~q=1, q=0
Przestawione wiersze nie maja żadnego znaczenia w algebrze Kubusia (w algebrze Boole’a także).
Przykład:
Twierdzenie Pitagorasa:
A.
Jeśli trójkąt jest prostokątny to suma kwadratów przyprostokątnych jest równa kwadratowi przeciwprostokątnej
TP=>SK
Twierdzenie Rexerexa:
Jeśli równoważność jest udowodniona to zachodzi wszystko co tylko możliwe.
p=>q = p<=>q = (p=>q)*(~p=>~q) = ~p<=>~q = ~p=>~q itd.
Dowód:
Analiza zero-jedynkowa dowolnego z tych zdań przez wszystkie możliwe przeczenia p i q daje identyczna tabelę zero-jedynkową – tabelę równoważności.
Dla sztywnego punktu odniesienia ustawionego na zdaniu p=>q dalsza część twierdzenie Rexerexa jest taka:
p<=>q = (p=>q)*(q=>p) = q=>p
Przykład:
A.
Jeśli trójkąt jest prostokątny to na pewno => suma kwadratów przyprostokątnych jest równa kwadratowi przeciwprostokątnej
TP=>SK
Ustalamy sztywno:
p=TP
q=SK
Stąd po zamianie poprzednika z następnikiem otrzymujemy twierdzenie odwrotne:
B.
Jeśli suma kwadratów przyprostokątnych jest równa kwadratowi przeciwprostokątnej to trójkąt jest prostokątny
SK=>TP
q=>p
Zauważmy że w poprzedniku jest mowa o trójkącie prostokątnym z którego wynika trójkąt prostokątny.
To „masło maślane” można zlikwidować w ten sposób:
C.
Jeśli w dowolnym trójkącie suma kwadratów boków krótszych jest równa kwadratowi boku najdłuższego to trójkąt jest prostokątny
SK=>TP
q=>p
Ta równoważna definicja równoważności:
p<=>q = (p=>q)*(q=>p)
jest uwielbiana przez matematyków.
Oczywiście, udowadniając dowolne twierdzenie matematyczne p=>q i q=>p dowodzimy wyłącznie warunku wystarczającego o znanej nam definicji:
Kod: |
p=>q=1
1 1 =1
p=>~q=1
1 0 =0
|
Dowodem iż dane twierdzenie jest równoważnością jest dowód prawdziwości twierdzenie prostego p=>q i twierdzenia odwrotnego q=>p.
p<=>q = (p=>q)*(q=>p)
Kwadrat logiczny równoważności na przykładzie zdania:
Jeśli trójkąt jest równoboczny to ma kąty równe
TR=>KR
Ustalamy sztywno:
p=TR
q=KR
Kwadrat logiczny równoważności:
Kod: |
Warunek wystarczający Warunek wystarczający
A1. B1.
p=>q=1 q=>p=1
TR=>KR=1 KR=>TR=1
A2. B2.
p=>~q=0 q=>~p=0
TR=>~KR=0 KR=>~TR=0
Warunek wystarczający Warunek wystarczający
A3. B3.
~p=>~q=1 ~q=>~p=1
~TR=>~KR=1 ~KR=>~TR=1
A4. B4.
~p=>q=0 ~q=>p=0
~TR=>KR=0 ~KR=>TR=0
|
Kąty powyższego kwadratu logicznego równoważności to po prostu definicje warunków wystarczających.
Twierdzenie o równoważności:
Równoważność zachodzi wtedy i tylko wtedy gdy zachodzą warunki wystarczające wzdłuż dowolnego boku kwadratu.
Stąd:
Wszystkie możliwe definicje równoważności dla sztywnego punktu odniesienia p=>q:
p<=>q = (p=>q)*(~p=>~q) = (p=>q)*(q=>p) = (~p=>~q)*(~q=>~p) = (q=>p)*(~q=>~P)
Wróćmy do twierdzenia Pitagorasa i jego analizy operatorowej.
Twierdzenie Pitagorasa jest bezdyskusyjna równoważnością udowodniona ze 2000 lat temu.
Na mocy twierdzenia Rexerexa możemy wypowiedzieć twierdzenie Pitagorasa w formie równoważności:
TP=>SK = TP<=>SK
Trójkąt jest prostokątny wtedy i tylko wtedy gdy zachodzi suma kwadratów
TP<=>SK = (TP=>SK)*(~TP=>~SK)
gdzie:
TP=>SK (~TP=>~SK) to tylko warunek wystarczający wchodzący w skład definicji równoważności o definicji.
Kod: |
TP=>SK=1
1 1 =1
TP=>~SK=0
1 0 =0
|
Oczywiście sam warunek wystarczający nie jest operatorem logicznym, bo ten musi być definiowany wszystkimi czteroma liniami.
O zdaniu TP=>SK możemy zatem powiedzieć precyzyjnie że jest to tylko warunek wystarczający wchodzący w skład równoważności.
Na mocy twierdzenia Rexerexa o zdaniu TP=>SK możemy także powiedzieć, że jest to równoważność, dając wszystkim do zrozumienia iż jesteśmy pewni iż zdanie to spełnia definicję równoważności.
O zdaniu TP=>SK w żadnym wypadku nie możemy powiedzieć iż jest to implikacja bowiem to zdanie nie spełnia zero-jedynkowej definicji implikacji prostej – to jest błąd czysto matematyczny.
Jeśli udowodniliśmy tylko warunek wystarczający w kierunku p=>q to nie możemy powiedzieć nic ponad to iż jest to warunek wystarczający.
Dopiero analiza matematyczna zdania rozstrzyga jednoznacznie czym jest wypowiedziane zdanie, może być czymkolwiek, implikacja prostą, albo równoważnością.
W naszym Wszechświecie króluje implikacja, zatem jeśli udowodnimy warunek wystarczający w kierunku p=>q to z dużym prawdopodobieństwem będzie to implikacja.
Kubuś jest przeciwny hiper precyzji.
Jeśli zatem uczeń powie, że twierdzenie Pitagorasa jest implikacją to może być pod warunkiem, że zapytamy o uściślenie odpowie dokładnie to co wyżej, inaczej nie zna twierdzenia Pitagorasa.
O zachodzącej równoważności bądź implikacji możemy rozstrzygnąć analizując zdanie przez wszystkie możliwe przeczenia p i q.
Prostszym sposobem jest skorzystanie z równoważnych definicji implikacji i prostej i równoważności.
Definicja implikacji prostej:
Implikacja prosta to zachodzenie wyłącznie warunku wystarczającego w kierunku p=>q
Przykład:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1 – gwarancja matematyczna
Oczywiście P8 wystarcza dla P2
Sprawdzamy teraz czy w wypowiedziany zdaniu zachodzi warunek konieczny.
Prawo Kubusia:
P8~>P2 = ~P8=>~P2=0
czyli:
A1.
Jeśli liczba jest podzielna przez 8 to może ~~> być podzielna przez 2
P8~~>P2=1 bo 8
~~> - naturalny spójnik „może” wystarczy jedna prawda, warunek konieczny tu nie zachodzi
A2.
Jeśli liczba nie jest podzielna przez 8 to na pewno => nie jest podzielna przez 2
P8~>P2 = ~P8=>~P2=0
Prawa strona jest fałszem ~P8=>~P2=0 zatem zdanie wypowiedziane P8~>P2 nie spełnia warunku koniecznego.
Zdanie wypowiedziane jest implikacja prosta bo:
P8=>P2=1 – warunek wystarczający między P8 i P2 spełniony
P8~>P2=0 – warunek konieczny miedzy P8 i P2 nie spełniony
Równoważna definicja równoważności:
p<=>q = (p=>q)*(p~>q) = (p=>q)* (~p=>~q)=1*1=1
Pierwsza część wzoru:
(p=>q)*(p~>q)=1*1=1
Oznacza, że w równoważności musi być spełniony jednocześnie warunek wystarczający p=>q i konieczny p~>q.
W implikacji warunek konieczny to po prostu spójnik „może”. W równoważności o spójniku „może” nie ma mowy, tu wszystko musi być w 100% zdeterminowane, czyli jedyny poprawny spójnik to „musi” => i ta definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)
gdzie:
=> - warunek wystarczający, spójnik „musi” między p i q
Podsumowując:
W równoważności symbol ~> oznacza wyłącznie warunek konieczny, nie jest to spójnik „może” !
Definicja warunku koniecznego ~>:
Zabieramy p i musi zniknąć q czyli:
p~>q = ~p=>~q – I prawo Kubusia
~p~>~q = p=>q – II prawo Kubusia
Przykład:
Jeśli trójkąt jest prostokątny to na pewno => suma kwadratów przyprostokątnych jest równa kwadratowi przeciwprostokątnej
TP=>SK
Sprawdzamy czy między p i q zachodzi warunek konieczny:
Twierdzenie ŚFINII:
Warunek konieczny miedzy p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik
TP~>SK = ~TP=>~SK – prawo Kubusia
czyli:
Jeśli trójkąt nie jest prostokątny to na pewno => nie zachodzi suma kwadratów
~TP=>~SK=1 - oczywistość
Wniosek:
Trójkąt prostokątny jest konieczny aby zachodziła suma kwadratów
TP~>SK=1
gdzie:
~> - symbol warunku koniecznego na mocy twierdzenie ŚFINII, to nie jest spójnik „może” !
CND
Stąd:
Definicja równoważna równoważności:
Równoważność <=> to jednoczesne zachodzenie warunku koniecznego i wystarczającego między p i q
p=>q=1 – warunek wystarczający w kierunku p=>q zachodzi
p~>q=1 – warunek konieczny w kierunku p~>q zachodzi
A.
Jeśli trójkąt jest równoboczny to na pewno ma kąty równe
TR=>KR=1
Oczywiście dla dowolnego trójkąta równobocznego na pewno zachodzą równe kąty
Zatem TR wystarcza dla KR
CND
Sprawdzamy teraz czy zachodzi warunek konieczny w kierunku TR~>KR:
Na mocy twierdzenia ŚFINII warunek konieczny zachodzi gdy z zanegowanego poprzednika wynika zanegowany następnik czyli:
TR~>KR = ~TR=>~KR
Jeśli trójkąt nie jest równoboczny to na pewno nie ma katów równych
~TR=>~KR=1
Twarda prawda zatem warunek konieczny w kierunku TR~>KR zachodzi
Zatem dla zdania A mamy:
TR=>KR=1
TR~>KR=~TR=>~KR=1
Wniosek:
Zdanie A spełnia definicję równoważności
Oczywiście zdanie A możemy tez wypowiedzieć w następujący sposób:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(TR~>KR) = 1*1=1
gdzie:
TR=>KR=1 – spełniony warunek wystarczający w kierunku p=>q
TR~>KR= ~TR=>~KR=1 – spełniony warunek konieczny w kierunku p~>q, nie jest to spójnik „może” !
Analizy zero-jedynkowe równoważności na przykładzie twierdzenia Pitagorasa.
Twierdzenie Pitagorasa – punkt odniesienia TP<=>SK
Zdanie wypowiedziane:
Trójkat jest prostokątny wtedy i tylko wtedy gdy zachodzi suma kwadratów
TP<=>SK=(TP=>SK)*(~TP=>~SK)
Analiza matematyczna:
TP<=>SK=(TP=>SK)*(~TP=>~SK)
A.
Jeśli trójkąt jest prostokątny to na pewno => zachodzi suma kwadratów
TP=>SK=1
1 1 =1
stąd:
B.
Jeśli trójkąt jest prostokątny to na pewno => nie zachodzi suma kwadratów
TP=>~SK=0
1 0 =0
… a jeśli nie jest prostokątny ?
TP<=>SK = ~TP<=>~SK = (~TP=>~SK)*(TP=>SK)
C.
Jeśli trójkąt nie jest prostokątny to na pewno => nie zachodzi suma kwadratów
~TP=>~SK=1
0 0 =1
Stąd:
D.
Jeśli trójkąt nie jest prostokątny to na pewno => zachodzi suma kwadratów
~TP=>SK=0
0 1 =0
Doskonale widać tabele zero-jedynkowa równoważności dla kodowania zgodnego ze zdaniem wypowiedzianym A czyli:
TP=1, ~TP=0
SK=1, ~SK=0
Twierdzenie Pitagorasa – punkt odniesienia ~TP<=>~SK
W tym przypadku przestawiamy po prostu w powyższej analizie zdania A-B ze zdaniami C-D.
Zdanie wypowiedziane:
Trójkat nie jest prostokątny wtedy i tylko wtedy gdy nie zachodzi suma kwadratów
~TP<=>~SK = (~TP=>~SK)*(TP=>SK)
Analiza matematyczna:
~TP<=>~SK = (~TP=>~SK)*(TP=>SK)
C.
Jeśli trójkąt nie jest prostokątny to na pewno => nie zachodzi suma kwadratów
~TP=>~SK=1
1 1 =1
Stąd:
D.
Jeśli trójkąt nie jest prostokątny to na pewno => zachodzi suma kwadratów
~TP=>SK=0
1 0 =0
… a jeśli trójkąt jest prostokątny ?
~TP<=>~SK = TP<=>SK = (TP=>SK)*(~TP=>SK)
A.
Jeśli trójkąt jest prostokątny to na pewno => zachodzi suma kwadratów
TP=>SK=1
0 0 =1
stąd:
B.
Jeśli trójkąt jest prostokątny to na pewno => nie zachodzi suma kwadratów
TP=>~SK=0
0 1 =0
Doskonale widać tabele zero-jedynkowa równoważności dla kodowania zgodnego ze zdaniem wypowiedzianym A czyli:
~TP=1, TP=0
~SK=1, SK=0
5.1 Zamek księcia równoważności
Poznajmy ostatniego krasnoludka pracującego w naszym mózgu, księcia Równoważności
Kod: |
Analiza I
TP SK
| |
x--------------------------x
| | |
| x--------------------------x
| | | |
--------------- ----------------
|TP SK TP=>SK | |TP SK TP=>SK |
| 1 1 =1 | | 0 0 =1 | CZŁOWIEK
| 1 0 =0 | | 0 1 =0 |
-------------- ---------------
| | | |
| | O O NEGATORY
TP SK ~TP ~SK
| | | |
------------------ ------------------
| O => | | O => |
| | | |
| TP SK TP=>SK | | ~TP ~SK ~TP=>~SK|
| 1 1 =1 O 1 1 =1 | KSIĄŻĘ
| 1 0 =0 /|\ 1 0 =0 | RÓWNOWAŻNOŚCI
| A |
| TP=>SK | |~TP=>~SK |
| KOMNATA | | KOMNATA |
| MUSI A | | MUSI B |
| OR | | OR |
------------------- ------------------
|TP=>SK |~TP=>~SK
| |
x---------- ----------x
| |
--------
| |
| AND |
--------
|
V
TP<=>SK = ~TP<=>~SK = (TP=>SK)*(~TP=>~SK)
TP=>SK
-------------- ---------------
| TP SK TP=>SK | | TP SK TP=>SK |KOMNATA
| 1 1 =1 | | 1 1 =1 |MUSI A
| 1 0 =0 | | 1 0 =0 |
| | |~TP ~SK~TP~>~SK|KOMNATA
| 0 0 =1 | | 1 1 =1 |MUSI B
| 0 1 =0 | | 1 0 =0 |
-------------- ---------------
CZŁOWIEK KSIĄŻĘ RÓWNOWAZNOŚCI
ZAMEK KSIECIA RÓWNOWAZNOŚCI
Punkt odniesienia
TP<=>SK = (TP=>SK)*(~TP=>~SK)
|
Książę równoważności widzi zdanie wypowiedziane TP=>SK wyłącznie z komnaty „MUSI-A”.
W komnacie „MUSI-B” książę widzi zanegowane nazwy ze zdania wypowiedzianego czyli ~TP i ~SK. Zera i jedynki w komnacie „MUSI-B” tez są odwrócone w stosunku do świata zewnętrznego, bo negatory na wejściu.
Analiza I
TP<=>SK
Punkt odniesienia, książę równoważności, czyli nasz mózg.
TP<=>SK=(TP=>SK)*(~TP=>~SK)
A.
Jeśli trójkąt jest prostokątny to na pewno => zachodzi suma kwadratów
TP=>SK=1
1 1 =1
stąd:
B.
Jeśli trójkąt jest prostokątny to na pewno => nie zachodzi suma kwadratów
TP=>~SK=0
1 0 =0
… a jeśli nie jest prostokątny ?
To krasnoludek błyskawicznie przenosi się do komnaty „MUSI-B” bowiem tylko tu ma dostęp do sygnału ~TP.
TP<=>SK = ~TP<=>~SK = (~TP=>~SK)*(TP=>SK)
C.
Jeśli trójkąt nie jest prostokątny to na pewno => nie zachodzi suma kwadratów
~TP=>~SK=1
1 1 =1
Stąd:
D.
Jeśli trójkąt nie jest prostokątny to na pewno => zachodzi suma kwadratów
~TP=>SK=0
1 0 =0
Praca księcia równoważności jest dowodem, że nasz mózg widzi zdania A i C jak dwa niezależne zdania, warunki wystarczające o niezmiennej definicji zero-jedynkowej.
Narysujmy na zakończenie schemat ideowy układu logicznego obsługującego twierdzenie Pitagorasa z punktu odniesienia ~TP=>~SK.
Kod: |
Analiza II
~TP ~SK
| |
x--------------------------x |
| | |
| x--------------------------x
| | | |
--------------- ----------------
|~TP~SK~TP=>~SK| |~TP~SK ~TP=>~SK|
| 0 0 =1 | | 1 1 =1 | CZŁOWIEK
| 0 1 =0 | | 1 0 =0 |
-------------- ---------------
| | | |
O O NEGATORY | |
TP SK ~TP ~SK
| | | |
------------------ ------------------
| O => | | O => |
| | | |
| TP SK TP=>SK | | ~TP ~SK ~TP=>~SK|
| 1 1 =1 O 1 1 =1 | KSIĄŻĘ
| 1 0 =0 /|\ 1 0 =0 | RÓWNOWAŻNOŚCI
| A |
| TP=>SK | |~TP=>~SK |
| KOMNATA | | KOMNATA |
| MUSI A | | MUSI B |
| OR | | OR |
------------------- ------------------
|TP=>SK |~TP=>~SK
| |
x---------- ----------x
| |
--------
| |
| AND |
--------
|
V
~TP<=>~SK = TP<=>SK = (TP=>SK)*(~TP=>~SK)
TP=>SK
-------------- ---------------
|~TP~SK ~TP=~SK| |~TP ~SK~TP~>~SK|KOMNATA
| 1 1 =1 | | 1 1 =1 |MUSI B
| 1 0 =0 | | 1 0 =0 |
| | | TP SK TP=>SK |KOMNATA
| 0 0 =1 | | 1 1 =1 |MUSI A
| 0 1 =0 | | 1 0 =0 |
-------------- ---------------
CZŁOWIEK KSIĄŻĘ RÓWNOWAZNOŚCI
ZAMEK KSIECIA RÓWNOWAZNOŚCI
Punkt odniesienia
~TP<=>~SK = (~TP=>~SK)*(TP=>SK)
|
Analiza II
~TP<=>~SK
Punkt odniesienia = książę równoważności, czyli nasz mózg.
~TP<=>~SK = (~TP=>~SK)*(TP=>SK)
C.
Jeśli trójkąt nie jest prostokątny to na pewno => nie zachodzi suma kwadratów
~TP=>~SK=1
1 1 =1
Stąd:
D.
Jeśli trójkąt nie jest prostokątny to na pewno => zachodzi suma kwadratów
~TP=>SK=0
1 0 =0
… a jeśli trójkąt jest prostokątny ?
To krasnoludek błyskawicznie przenosi się do komnaty „MUSI-A” bowiem tylko tu ma dostęp do sygnału TP.
TP<=>SK=(TP=>SK)*(~TP=>~SK)
A.
Jeśli trójkąt jest prostokątny to na pewno => zachodzi suma kwadratów
TP=>SK=1
1 1 =1
stąd:
B.
Jeśli trójkąt jest prostokątny to na pewno => nie zachodzi suma kwadratów
TP=>~SK=0
1 0 =0
Praca księcia równoważności jest dowodem, że nasz mózg widzi zdania A i C jak dwa niezależne zdania, warunki wystarczające o niezmiennej definicji zero-jedynkowej.
Jak widzimy, w obu analizach I i II świat księcia równoważności w zerach i jedynkach oraz sygnałach wejściowych jest stały i niezmienny, to definicje zero-jedynkowe warunków wystarczających
Kod: |
Niezmienna definicja warunku wystarczającego
z punktu odniesienia naszego mózgu
p q p=>q
1 1 =1 /p=>q=1
1 0 =0 /p=>~q=0
|
Oczywiście z punktu odniesienia świata zewnętrznego widzimy wyłącznie tabele zero-jedynkową równoważności.
Jak udowodnić zgodność algebry Kubusia ze światem rzeczywistym ?
Po pierwsze algebra Kubusia po prostu fenomenalnie działa, a po drugie wszystkiego możemy dotknąć w laboratorium układów cyfrowych.
Ćwiczenie:
Zbudować powyższe układy logiczne (I i II) i sprawdzić tabele zero-jedynkowe z punktu widzenia człowieka oraz z punktu widzenia księcia równoważności.
Pewne jest, że teoria będzie się zgadzać w 100% z rzeczywistością bramek logicznych co jest bezdyskusyjnym dowodem iż w naszym mózgu pracują najprawdziwsze krasnoludki.
5.3 Metody dowodzenia twierdzeń matematycznych
Rozważmy wzorcową implikacje prostą:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1
Ustalamy sztywno:
p=P8
q=P2
Implikacja odwrotna do powyższej przyjmie zatem postać:
B.
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8=1
q~>p=1 – dla sztywnego punktu odniesienia ustawionego wyżej
Równanie ogólne implikacji dla sztywnego punktu odniesienia p=>q przybierze postać:
p=>q = ~p~>~q =1 ## q~>p = ~q=>~p =1
Dla naszego przykładu:
P8=>P2 = ~P8~>~P2 =1 ## P2~>P8 = ~P2=>~P8=1
gdzie:
## - różne funkcje logiczne
Zapiszmy szczegółowe analizy lewej i prawej strony równania ogólnego implikacji w postaci kwadratu logicznego.
Kwadrat logiczny implikacji:
Kod: |
Warunek wystarczający Warunek konieczny
A1. B1
p=>q =1 – gwarancja q~>p=1
P8=>P2=1 bo 8,16.. P2~>P8=1 bo 8
stąd: LUB
A2. B2.
p=>~q=0 - fałsz q~~>~p=1
P8=>~P2=0 – nie ma P2~~>~P8=1 bo 2
Prawo Kubusia Prawo Kubusia
p=>q = ~p~>~q q~>p = ~q=>~p
Warunek konieczny Warunek wystarczający
A3. B3.
~p~>~q=1 ~q=>~p=1 - gwarancja
~P8~>~P2=1 bo 3 ~P2=>~P8=1 bo 3,5 ..
LUB stąd:
A4. B4.
~p~~>q=1 ~q=>p=0 - fałsz
~P8~~>P2=1 bo 2 ~P2=>P8=0 – nie ma
|
Weźmy teraz wzorcową równoważność:
A10.
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR
Również ustalamy sztywno:
p=TR
q=KR
Zdanie odwrotne q=>p przybierze postać:
B10.
Jeśli trójkąt ma kąty równe to na pewno => jest równoboczny
KR=>TR
q=>p
Równanie ogólne dla równoważności:
(p=>q = ~p=>~q =1) = (q=>p = ~q=>~p=1)
(TR=>KR = ~TR=>~KR=1) = (KR=>TR = ~KR=>~TR=1)
Zauważmy, że w przeciwieństwie do implikacji stawiamy tu znak tożsamości „=” zamiast „##”.
We wszystkich zapisach wyżej mamy do czynienia z warunkami wystarczającymi prawdziwymi, to nie są implikacje proste.
Kwadrat logiczny równoważności:
Kod: |
Warunek wystarczający Warunek wystarczający
A10. B10.
p=>q=1 q=>p=1
TR=>KR=1 KR=>TR=1
A20. B20.
p=>~q=0 q=>~p=0
TR=>~KR=0 KR=>~TR=0
Warunek wystarczający Warunek wystarczający
A30. B30.
~p=>~q=1 ~q=>~p=1
~TR=>~KR=1 ~KR=>~TR=1
A40. B40.
~p=>q=0 ~q=>p=0
~TR=>KR=0 ~KR=>TR=0
|
Kąty powyższego kwadratu logicznego równoważności to po prostu definicje warunków wystarczających.
Dowód dowolnego twierdzenia matematycznego rozpoczynamy od udowodnienia warunku wystarczającego w dowolnym rogu kwadratu.
Załóżmy, że udowodniliśmy warunek wystarczający w kierunku p=>q czyli:
A10: TR=>KR=1 – dla równoważności
A1: P8=>P2=1 – dla implikacji
Znane matematykom prawo kontrapozycji totalnie nic nie daje bo:
A10: TR=>KR=1 = B30: ~KR=~TR=1 – dla równoważności
A1: P8=>P2=1 ## B3: ~P2=>~P8=1 – dla implikacji
Zauważmy, że równie dobrze możemy wystartować od udowodnienia warunku wystarczającego w rogach B3 lub B30 na mocy faktu, że możemy badać warunki wystarczające w dowolnych rogach kwadratu logicznego równoważności, zatem prawo kontrapozycji jest matematycznie bezużyteczne.
Kluczową sprawą jest tu zauważenie, że nawet udowodnienie dwóch niezależnych warunków wystarczających po przekątnych kwadratu logicznego nic nam nie daje, bo tymi dowodami nie rozstrzygniemy rzeczy kluczowej:
Równoważność to czy implikacja
Oczywiście jednoznaczne rozstrzygnięcie, że dowodzone twierdzenie jest równoważnością uzyskamy wtedy i tylko wtedy gdy uzyskamy dowody warunków wystarczających wzdłuż dowolnego boku kwadratu logicznego równoważności.
Dowolny warunek wystarczający możemy udowodnić dwoma sposobami.
Sposób I
Zakładamy, że mamy do czynienia z warunkiem wystarczającym.
Definicja warunku wystarczającego:
Kod: |
A10.
p=>q=1
A11.
p=>~q=0
|
Definicja słowna:
A10.
p=>q
Jeśli zajdzie p to musi => zajść q
czyli:
Dowodzimy że dla każdego p zachodzi q
z czego wynika że zajście:
A20.
p=>~q=0
Jest niemożliwe o czym mówi druga linia definicji.
Sposób II
A10.
Szukamy jednego przypadku spełniającego A10:
p~~>q=1
~~> - naturalny spójnik „może”, wystarczy jeden przypadek prawdziwy
A20.
Szukamy jednego przypadku spełniającego A20:
p~~>~q=1
czyli szukamy kontrprzykładu dla A20.
Znalezienie takiego kontrprzykładu wyklucza istnienie warunku wystarczającego w rogu A10: p=>q.
Badane twierdzenie może być co najwyżej implikacją prostą, na równoważność nie mamy już szans.
Metody dowodzenia twierdzeń matematycznych
Założenie 1
Udowodniliśmy warunek wystarczający w rogach A10 lub B30 – to bez znaczenia !
Dowodzimy 1
Dowodzimy warunku wystarczającego w rogach B10 lub A30 – to bez znaczenia
Wnioski:
A.
Jeśli udowodnimy warunek wystarczający w rogu B10 lub A30 to całe twierdzenie jest równoważnością
B.
Jeśli stwierdzimy brak warunku wystarczającego w rogach B10 lub A30, na przykład poprzez znalezienie kontrprzykładu, to całe twierdzenie jest implikacją.
Założenie 2
W rogach A10 lub B30 znaleźliśmy kontrprzykład, czyli wykluczyliśmy warunek wystarczający
Dowodzimy 2
Dowodzimy warunku wystarczającego w rogach B10 lub A30 – to bez znaczenia
Wnioski:
A.
Jeśli udowodnimy warunek wystarczający w rogach B10 lub A30 to całe twierdzenie jest implikacją
B.
Jeśli stwierdzimy brak warunku wystarczającego w rogach B10 lub A30, na przykład poprzez znalezienie kontrprzykładu, to całe twierdzenie jest śmieciem, ani to implikacja, ani równoważność.
Wniosek końcowy:
Prawo kontrapozycji znane matematykom:
p=>q ## ~q=>~p – zapis poprawny w algebrze Kubusia
jest bezużyteczne, bo kompletnie nic nie daje, nie da się przy jego pomocy rozstrzygnąć rzeczy kluczowej:
Równoważność to czy implikacja
5.4 Znaczenie zdania „Jeśli…to…” w logice
Zdanie „Jeśli …to…” może mieć w logice tylko i wyłącznie pięć różnych znaczeń:
1.
Implikacja prosta:
p=>q
Jeśli zajdzie p to musi zajść q
p musi być wystarczające dla q
Dodatkowo musi być spełniona wyrocznia implikacji prawo Kubusia:
p=>q = ~p~>~q
Prawo Kubusia = definicja implikacji prostej
Przykład:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2 = ~P8~>~P2=1
Skrócona analiza przez wszystkie możliwe przeczenia p i q:
P8=>P2=1 bo 8,16,24… - twarda prawda, gwarancja matematyczna
P8=>~P2=0 – twardy fałsz wynikły z powyższej twardej prawdy
~P8~>~P2=1 bo 3,,5,7… - miękka prawda, może zajść ale nie musi
LUB
~P8~~>P2=1 bo 2,4,6… - miękka prawda, może zajść ale nie musi
2.
Implikacja odwrotna:
p~>q
jeśli zajdzie p to może zajść q
Plus musi być spełnione prawo Kubusia:
p~>q = ~p=>~q
z czego wynika że p musi być warunkiem koniecznym dla q
Definicja warunku koniecznego wynikła z prostego rozumowania logicznego:
Jeśli p jest konieczne ~> dla q to zajście ~p wymusza => zajście ~q
stąd:
p~>q = ~p=>~q – prawo Kubusia
Prawo Kubusia = definicja implikacji odwrotnej
Przykład:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8 = ~P2=>~P8 =1
Skrócona analiza przez wszystkie możliwe przeczenia p i q:
P2~>P8=1 bo 8,16,24… – miękka prawda, może zajść ale nie musi
LUB
P2~~>~P8=1 bo 2,4,6… - miękka prawda, może zajść ale nie musi
~P2=>~P8=1 bo 3,5,7… twarda prawda, gwarancja matematyczna
~P2=>P8=0 – twardy fałsz wynikły z powyższej, twardej prawdy
3.
Zdaniem prawdziwym na mocy naturalnego spójnika „może” ~~>, wystarczy jedna prawda.
Przykład:
Jeśli liczba jest podzielna przez 3 to może być podzielna przez 8
P3~~>P8 =1 bo 24
Zdanie prawdziwe, bo znaleźliśmy jeden przypadek czyniący to zdanie prawdziwym.
P3 nie jest konieczne dla P8 bo 8, zatem implikacja odwrotna P3~>P8 jest tu fałszywa
Dowód:
Na mocy twierdzenie śfinii warunek konieczny miedzy p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik czyli:
P3~>P8 = ~P3=>~P8=0 bo 8
stad:
P3~>P8=0 – warunek konieczny tu nie zachodzi.
4.
Tylko warunek wystarczający wchodzący w skład definicji równoważności
p=>q
Jeśli zajdzie p to musi zajść q
Definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)
Warunek wystarczający w równoważności p=>q jest identyczny jak w implikacji prostej wyżej p=>q, to jest nie do rozpoznania.
Prawa strona definicji równoważności to tylko i wyłącznie warunki wystarczające, nie są to implikacje proste bo nie spełniają definicji zero-jedynkowej implikacji prostej =>.
Przykład:
Jeśli trójkąt jest równoboczny to ma kąty równe
TR=>KR
To jest tylko i wyłącznie warunek wystarczający wchodzący w skład definicji równoważności:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR=>~KR)
5.
Zdaniem fałszywym, nie spełniającym któregokolwiek z powyższych przypadków.
6.0 Fundamenty algebry Kubusia
Matematycznym fundamentem dwuelementowej algebry Kubusia (także Boole’a) jest definicja iloczynu kartezjańskiego i pojęcie funkcji.
W algebrze Kubusia znane są wyłącznie cyfry 0 i 1. Mamy tu dwa zbiory p=(0,1) i q=(0,1) bo inne cyfry są nielegalne. Iloczyn kartezjański tych zbiorów to zbiór [p,q]=[(0,0), (0,1), (1,0), (1,1)].
Definicja funkcji logicznej:
Funkcja logiczna w algebrze Kubusia to jednoznaczne odwzorowanie iloczynu kartezjańskiego [p,q]=[(0,0), (0,1), (1,0), (1,1)] w zbiór Y zwany funkcją logiczną.
W technice cyfrowej p i q zwane są sygnałami wejściowymi bramki logicznej, natomiast funkcja logiczna Y to wyjście cyfrowe.
Kod: |
Schemat ideowy bramki OR
p q
| |
---------
| |
| OR |
---------
|
V
Y=p+q
|
W technice cyfrowej bramka OR realizuje funkcję sumy logicznej.
Funkcje logiczne w algebrze Boole’a definiowane są tabelami zero-jedynkowymi, zwanymi tabelami prawdy.
Funkcja logiczna OR
Kod: |
Tabela 1
p q Y=p+q
1 1 =1
1 0 =1
0 1 =1
0 0 =0
|
Przypomnijmy sobie definicje …
Definicja sumy logicznej w logice dodatniej:
Suma logiczna n-zmiennych binarnych jest równa jeden gdy którakolwiek zmienna jest równa 1
Y=p+q
Y=1 <=> p=1 lub q=1
w przeciwnym przypadku Y=0 czyli:
Y=p+q
Y=0 <=>p=0 i q=0
Doskonale widać, zgodność matematycznej funkcji logicznej z naszą tabelą zero-jedynkową.
Synonimy dla określenia funkcji logicznej:
Funkcja logiczna = Operator logiczny (logika) = Bramka logiczna (technika) = Tabela prawdy (technika)
Przykład:
Funkcja logiczna OR = Operator logiczny OR = Bramka logiczna OR = Tabela prawdy OR
Pojęcia te można używać zamiennie.
Definicja operatora logicznego:
Operator logiczny to kompletna funkcja Y, będąca jednoznacznym odwzorowaniem wszystkich możliwych stanów na wejściach p i q.
Oczywiście:
Operator logiczny = funkcja logiczna
Definicja funkcji logicznej OR (operatora logicznego OR).
Kod: |
Tabela 2
p q Y=p+q
1 1 =1
1 0 =1
0 0 =0
0 1 =1
|
Wiersze w tabeli zero-jedynkowej operatora logicznego możemy dowolnie zmieniać co pokazano w tabeli 1 i 2, to bez znaczenia. Istotne jest aby konkretnym p i q odpowiadała zawsze ta sama funkcja logiczna Y.
Na mocy definicji operatora OR mamy:
Y=1 <=> p=1 lub q=1
W przeciwnym przypadku:
Y=0
Termin „operator logiczny” jest w powszechnym użyciu w logice i nie będziemy się z tego wyłamywać.
6.1 Aksjomatyczne definicje operatorów logicznych
Podstawowe definicje dwuelementowej algebry Kubusia to po prostu pełna lista operatorów logicznych.
Aksjomatyczne definicje operatorów logicznych w algebrze Boole’a i algebrze Kubusia:
Kod: |
p q OR NOR AND NAND <=> XOR => N(=>) ~> N(~>) FILL NOP P NP Q NQ
1 1 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0
1 0 1 0 0 1 0 1 0 1 1 0 1 0 1 0 0 1
0 1 1 0 0 1 0 1 1 0 0 1 1 0 0 1 1 0
0 0 0 1 0 1 1 0 1 0 1 0 1 0 0 1 0 1
|
Kod: |
Logika dodatnia Logika ujemna
OR NOR
AND NAND
<=> XOR
=> N(=>)
~> N(~>)
FILL NOP
P NP
Q NQ
|
Wszystkich możliwych operatorów logicznych dwuargumentowych jest 16. Za operatory dodatnie przyjęto te, które człowiek używa w naturalnym języku mówionym.
Operator ujemny to zanegowany operator dodatni, co doskonale widać w powyższej tabeli.
Operator dodatni to zanegowany operator ujemny, co również widać wyżej.
Kod: |
Definicje operatorów ujemnych:
pNORq = ~(p+q)
pNANDq = ~(p*q)
pXORq = ~(p<=>q)
pN(=>)q = ~(p=>q)
pN(~>)q = ~(p~>q)
pNOPq = ~(pFILLq)
pNPq = ~(pPq)
pNQq = ~(pQq)
|
W języku mówionym operatory ujemne nie są używane, ponieważ łatwo je zastąpić operatorami dodatnimi plus negacją co widać w powyższej tabeli.
Dowolny operator logiczny jest jednoznacznie zdefiniowany tabelą zero-jedynkową i nie ma tu miejsca na jego niejednoznaczną interpretację. Argumenty w dowolnym operatorze logicznym mogą być albo przemienne (AND, OR, <=>), albo nieprzemienne (implikacja prosta => i implikacja odwrotna ~>).
6.2 Abstrakcyjny model operatora logicznego
Wyobraźmy sobie czarną skrzynkę z dwoma przełącznikami p i q na których można ustawiać logiczne 0 albo 1. Wyjściem w tej skrzynce jest lampka Y sterowana przez najprawdziwszego krasnoludka imieniem OPERATOR w następujący sposób.
Y=1 – lampka zaświecona
Y=0 – lampka zgaszona
Panel sterowania naszej czarnej skrzynki umożliwia wybór jednego z 16 możliwych operatorów logicznych.
Fizyczna realizacja takiej czarnej skrzynki w technice TTL jest banalna. W laboratorium techniki cyfrowej można sprawdzić doświadczalnie działanie wszystkich 16 operatorów logicznych. Pewne jest że teoria matematyczna musi być w 100% zgodna z rzeczywistością co jest dowodem … że krasnoludki są na świecie.
6.3 Operatory logiczne FILL i NOP
Definicje FILL i NOP
Kod: |
p q Y=pFILLq Y=pNOPq
1 1 =1 =0
1 0 =1 =0
0 1 =1 =0
0 0 =1 =0
|
Jak widzimy po wybraniu operatora FILL krasnoludek OPERATOR zapala lampkę na wyjściu Y=1, siada na stołeczku i odpoczywa kompletnie nie interesując się co też człowiek na wejściach p i q sobie ustawia. Analogicznie jeśli wybierzemy operator NOP to lampka na wyjściu Y będzie cały czas zgaszona (Y=0).
6.4 Operatory P i Q
Definicje operatorów P i Q:
Kod: |
p q Y=pPq Y=pQq
1 1 =1 =1
1 0 =1 =0
0 1 =0 =1
0 0 =0 =0
|
Operator P generuje na wyjściu Y sygnał identyczny z tym jaki widnieje po lewej stronie operatora P:
pPq =p
qPp=q
aPb=a
itd.
Fizycznie operator pPq to po prostu połączenie kabelkiem wejścia p z wyjściem Y, wejście q jest tu zupełnie nieistotne i można je usunąć.
Z powyższego wynika że operator P można i należy zredukować do sygnału widniejącego po lewej stronie operatora P, czyli całość redukujemy do operatora jednoargumentowego o definicji.
Analogicznie operator Q można i należy zredukować do sygnału widniejącego z prawej strony operatora Q:
pQq=q
qQp=p
aQb=b
itd.
Fizycznie operator pQq to po prostu połączenie kabelkiem wejścia q z wyjściem Y, wejście p jest tu zupełnie nieistotne i można je usunąć, czyli w rzeczywistości mamy do czynienia z operatorem jednoargumentowym o następującej definicji.
6.5 operatory negacji NP i NQ
Definicje operatorów NP i NQ
Kod: |
p q Y=pNPq Y=pNQq
1 1 =0 =0
1 0 =0 =1
0 1 =1 =0
0 0 =1 =1
|
Doskonale widać, że na wyjściu operatora pNPq mamy:
Y=pNPq = pNP = ~p
Na wyjściu Y mamy zanegowany sygnał z wejścia p, sygnał q jest tu totalnie nieistotny i można go do kosza wyrzucić. Fizycznie ten operator to połączenie wejścia p z wyjściem Y poprzez układ negatora, czyli całość to w rzeczywistości jednoargumentowy układ negatora o definicji jak niżej.
Definicja negatora:
Kod: |
p Y=pNP=~p
1 =0
0 =1
|
Gdzie:
~ - symbol negacji, w mowie potocznej przeczenie NIE
Oczywiście matematycznie zachodzi:
Y=pNPq=pNP=~p
Y=qNPp=qNP=~p
Y=aNPb=aNP=~a
itd.
Czyli istotny jest wyłącznie sygnał z lewej strony operatora NP.
Analogiczną funkcję negatora realizuje operator pNQq:
Y=pNQq = NQq=~q
Tu z kolei istotny jest wyłącznie sygnał po prawej stronie operatora NQq.
Matematycznie zachodzi:
Y=pNQq=NQq=~q
Y=qNQp=NQp=~p
Y=aNQb=NQb=~b
itd.
Czyli istotny jest wyłącznie sygnał po prawej stronie operatora NQ.
Ciekawostka:
Z lewej strony może być dowolnie długa funkcja logiczna, to kompletnie bez znaczenia np.
Y=(a+b+~d*a+..)NQb = ~b
Tabela prawdy tego negatora:
Kod: |
q Y=NQq=~q
1 =0
0 =1
|
Gdzie:
~ - symbol negacji, w mowie potocznej przeczenie NIE
Ostatnio zmieniony przez rafal3006 dnia Wto 12:30, 26 Kwi 2011, w całości zmieniany 1 raz
|
|
Powrót do góry |
|
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35963
Przeczytał: 15 tematów
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Wto 12:31, 26 Kwi 2011 Temat postu: |
|
|
7.0 Dowody formalne
Dowody formalne w algebrze Kubusia są identyczne jak w algebrze Boole’a, tożsamość kolumn wynikowych świadczy o zachodzeniu danego prawa.
Czytelnicy których matematyka mało interesuje mogą ten rozdział pominąć, gdyż wszelkie prawa dowodzone tu formalnie już znamy !
7.1 Podstawowe prawa algebry Boole’a
Klasyczna, zero-jedynkowa algebra Boole’a to w dniu dzisiejszym zabytek klasy zerowej. Algebra ta jest co prawda fundamentem działania wszelkich komputerów (i całego naszego Wszechświata) ale człowiek myślał w zerach i jedynkach zaledwie przez mgnienie oka. Natychmiast wynalazł język symboliczny zwany asemblerem izolując się od kodu maszynowego … czyli skopiował działanie własnego mózgu.
W technice bramek logicznych znane jest pojęcie logiki dodatniej i ujemnej w algebrze Boole’a, jednak problem sprowadzony jest tu do banału „zgodności sygnałów logicznych”.
Jeśli sygnały cyfrowe w dowolnym układzie logicznym są przeciwnych logikach to używamy banalnego negatora aby doprowadzić do zgodności sygnałów.
W naszym Wszechświecie oraz naturalnym języku mówionym człowieka króluje logika dodatnia i ujemna w algebrze Boole’a uzyskiwana w inny, równoważny sposób.
Dana jest funkcja logiczna
A.
Y=A*B
Logika dodatnia bo Y (brak negacji funkcji logicznej)
B.
Przejście do logiki ujemnej w świecie techniki.
Negujemy dwustronnie powyższe równanie:
~Y=~(A*B)
Logika ujemna bo ~Y (jest negacja funkcji logicznej)
W tym przypadku wystarczy prosty negator bez ingerencji w budowę układu logicznego
C.
Równoważne przejście do logiki ujemnej, powszechne w naszym Wszechświecie.
W równaniu A negujemy sygnały i wymieniamy operatory na przeciwne:
~Y=~A+~B
W świecie techniki ten sposób przejścia do logiki ujemnej jest bezsensem bo wymaga totalnej przebudowy całego układu logicznego.
Prawa wynikające z definicji iloczynu logicznego
Definicja iloczynu logicznego w logice dodatniej:
Iloczyn logiczny n-zmiennych binarnych jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Y=A*B
Y=1 <=> A=1 i B=1
Definicja równoważna w logice ujemnej:
Iloczyn logiczny jest równy zeru gdy którakolwiek zmienna jest równa zeru.
Y=A*B
Y=0 <=> A=0 lub B=0
Zauważmy, że mamy tu niezgodność z naturalną logiką człowieka. W zapisie matematycznym mamy spójnik „i”(*) a w rozwinięciu szczegółowym używamy spójnika „lub” – dlatego to jest logika ujemna.
Prawa wynikające bezpośrednio z definicji:
1*0=0
1*1=1
A*0=0
A*1=A
A*A=A
A*~A=0
Odpowiedniki z języka mówionego:
Pies szczeka i miauczy
P=S*M = S*0=1*0=0
Pies szczeka i szczeka
P=S*S = S*1 = 1*1=1 = S
Pies szczeka i nie szczeka
P=S*~S = 1*0=0
Przykłady z języka mówionego:
A.
jutro pójdę do kina i pójdę do kina = jutro pójdę do kina
K*K=K
B.
Jutro pójdę do kina i nie pójdę do kina
K*~K=0 – sprzeczność w jednym zdaniu, sytuacja niemożliwa, dlatego wartość logiczna zdania to fałsz (0).
W naturalnym języku mówionym zdania A i B to bełkot, dlatego nikt tak nie mówi.
Prawa wynikające z definicji sumy logicznej
Definicja sumy logicznej w logice dodatniej:
Suma logiczna n-zmiennych binarnych jest równa jeden gdy którakolwiek zmienna jest równa 1
Y=A+B
Y=1 <=> A=1 lub B=1
Definicja równoważna w logice ujemnej:
Suma logiczna n-zminnych binarnych jest równa zeru wtedy i tylko wtedy gdy wszystkie zmienne są równe zeru.
Y=A+B
Y=0 <=> A=0 i B=0
Zauważmy, że mamy tu niezgodność z naturalną logiką człowieka. W zapisie matematycznym mamy spójnik „lub”(+) a w rozwinięciu szczegółowym używamy spójnika „i” – dlatego to jest logika ujemna.
Prawa wynikające bezpośrednio z definicji:
1+0=1
0+0=0
A+1=1
A+0=A
A+A=A
A+~A=1
Odpowiedniki z języka mówionego, wątpliwej jakości
Pies szczeka lub miauczy
P=S+M = S+0 = 1+0 =1 =S
Pies miauczy lub miauczy
P=M+M = 0+0=0
Pies szczeka lub szczeka
P=S+S = S+1= 1+1=1 = S
Pies szczeka lub nie szczeka
P=S+~S=1+0=1
Przykłady z języka mówionego:
C.
Jutro pójdę do kina lub pójdę do kina = jutro pójdę do kina
K+K = K
D.
Jutro pójdę do kina lub nie pójdę do kina
K+~K=1
Twarda prawda, bowiem jutro musi wystąpić K lub ~K, nie ma innej możliwości matematycznej.
Nikt tak nie mówi, bowiem mamy tu zero sensu, czyli nic nie zależy od decyzji człowieka, cokolwiek zrobi, nie skłamie. W technice cyfrowej takie połączenie sygnałów to również bezsens – zero logiki.
Czasami mówimy:
Jutro pójdę do kina albo nie pójdę do kina
Y=K+~K
Wyrażając tym samym swoje niezdecydowanie, dając do zrozumienia odbiorcy, że rozważmy pójście do kina ale nie jesteśmy tego pewni.
Zdania równoważne:
Zastanawiam się czy jutro pójść do kina
Możliwe że jutro pójdę do kina
itp
Najważniejsze prawa algebry Boole’a
W języku mówionym prawa łączności i przemienności to oczywistość, natomiast absorpcja, rozdzielność i pochłanianie są przydatne jedynie w technice cyfrowej.
Łączność:
A+(B+C) = (A+B)+C
A*(B*C)=(A*B)*C
Przemienność:
A+B=B+C
A*B=B*C
Absorbcja:
A+(A*B)=A
Dowód:
Jeśli A=1 to A+(A*B)=1+(A*B)=1
Jeśli A=0 to A+(A*B)=0+(0*B)=0+0=0
niezależnie od wartości B
CND
A*(A+B)=A
Dowód:
Jeśli A=1 to A*(A+B)= 1*(1+B)=1*1=1
Jeśli A=0 to A*(A+B)=0*(A+B)=0
niezależnie od wartości B.
CND
Rozdzielność:
A+(B*C) = (A+B)*(A+C)
A*(B+C)=(A*B)+(B*C)
Pochłanianie:
A*~A=0
A+~A=1
7.2 Dowody formalne praw de’Morgana
Definicja ogólna sumy logicznej:
Suma logiczna jest równa 1 wtedy i tylko wtedy gdy którakolwiek zmienna jest równa 1
Y=p+q
Y=1 <=> p=1 lub q=1
Zapis równoważny:
Y=p*q+p*~q+~p*q
Definicja ogólna iloczynu logicznego:
Iloczyn logiczny jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1
Y=p*q
Y=1 <=> p=1 i q=1
Stąd poniższe tabele zero-jedynkowe.
Definicja zero-jedynkowa sumy logicznej:
Kod: |
p q Y=p+q
1 1 =1
1 0 =1
0 1 =1
0 0 =0
|
Definicja zero-jedynkowa iloczynu logicznego:
Kod: |
p q Y=p*q
1 1 =1
1 0 =0
0 1 =0
0 0 =0
|
Dowód zero-jedynkowy prawa przemienności i prawa de’Morgana dla OR(+)
Kod: |
p q Y=p+q Y=q+p ~Y=~(p+q)=~p*~q ~p ~q ~Y=~p*~q Y=~(~p*~q)=p+q
1 1 =1 =1 =0 0 0 =0 =1
1 0 =1 =1 =0 0 1 =0 =1
0 1 =1 =1 =0 1 0 =0 =1
0 0 =0 =0 =1 1 1 =1 =0
|
Trzecia kolumna to definicja zero-jedynkowa operatora OR.
Zauważmy, że w powyższej tabeli po stronie p i q wyczerpaliśmy wszystkie możliwe przypadki czyli wszystkie możliwe kombinacje zer i jedynek.
Dowodem zachodzenia prawa logicznego jest tożsamość kolumn wynikowych.
Kolumna wynikowa to wartość funkcji logicznej Y (lub ~Y) ustawianej na 1 albo 0 przez zmienne wejściowe p i q. Zauważmy, że kolumny wynikowe mogą występować w logice dodatniej (Y) albo ujemnej (~Y).
Dowodem istnienia logiki dodatniej i ujemnej w algebrze Boole’a są kolumny 5 i 8. W kolumnie 5 musieliśmy zapisać ~Y (nie ma innego wyjścia) co wymusza zapis ~Y w kolumnie 8 bo kolumny wynikowe 5 i 8 są identyczne.
To jest bezpośredni dowód prawa przejścia do logiki przeciwnej:
Negujemy zmienne i wymieniamy operatory na przeciwne
Mamy:
Y=p+q
Stąd w logice ujemnej:
~Y=~p*~q
CND
Najważniejsze prawa logiczne wynikające z powyższej tabeli:
1.
W sumie logicznej argumenty są przemienne dla dowolnych p i q
p+q = q+p
Trzecia i czwarta kolumna.
2.
Prawo de’Morgana w logice dodatniej:
Y = p+q = ~(~p*~q) – ostatnia kolumna
Prawo de’Morgana w logice ujemnej:
~Y=~(p+q) = ~p*~q – piąta kolumna
Oczywiście:
~Y=~(p+q) = p NOR q – definicja zero-jedynkowa operatora NOR (piąta kolumna)
W języku mówionym operator NOR nie jest używany bo można go łatwo zastąpić operatorem OR plus przeczeniem, co doskonale widać w powyższej tabeli. Nasz mózg to cwana bestia, minimalizuje ilość używanych operatorów w naturalnym języku mówionym. Formalnie można w języku mówionym używać operatorów ujemnych (NOR) - tyle tylko, że żaden normalny człowiek tego nie zrozumie.
Powyższe dowody zero-jedynkowe wolne są od jakichkolwiek założeń pobocznych. W szczególności nie wiemy jeszcze jak te zera i jedynki poprawnie interpretować.
W algebrze Kubusia wartość funkcji logicznej ustawiana jest przez zmienne wejściowe p i q.
Algebra Kubusia rozróżnia świat niezdeterminowany gdzie mamy do czynienia z prawdą względną i fałszem względnym oraz świat zdeterminowany gdzie mamy do czynienia z prawdą bezwzględną i fałszem bezwzględnym (znane z góry).
Świat zdeterminowany
Pies ma cztery łapy i szczeka
Y=4L*S = 1*1=1
Świat niezdeterminowany
Pani w przedszkolu:
Jutro pójdziemy do kina
Y=K
czyli matematycznie:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1)
Zuzia do Jasia:
… a kiedy Pani skłamie ?
Jaś (lat 5)
Pani skłamie (~Y=1) gdy jutro nie pójdziemy do kina (~K=1)
~Y=~K
Mamy tu do czynienia z prawdą względną i fałszem względnym, czyli znamy z góry kiedy jutro Pani skłamie a kiedy dotrzyma słowa … i o to chodzi w logice w świecie niezdeterminowanym !
Oczywiście wszystko jest w rękach Pani, może dotrzymać słowa albo nie, bo ma wolną wolę.
Dowód zero-jedynkowy prawa przemienności i prawa de’Morgana dla AND(*):
Kod: |
p q Y=p*q Y=q*p ~Y=~(p*q)=~p+~q ~p ~q ~Y=~p+~q Y=~(~p+~q)=p*q
1 1 =1 =1 =0 0 0 =0 =1
1 0 =0 =0 =1 0 1 =1 =0
0 1 =0 =0 =1 1 0 =1 =0
0 0 =0 =0 =1 1 1 =1 =0
|
Trzecia kolumna to definicja zero-jedynkowa operatora AND.
Najważniejsze prawa logiczne wynikające z powyższej tabeli:
1.
W iloczynie logicznym argumenty są przemienne dla dowolnych p i q
p*q = q*p
Trzecia i czwarta kolumna.
2.
Prawo de’Morgana w logice dodatniej:
Y = p*q = ~(~p+~q) – ostatnia kolumna
Prawo de’Morgana w logice ujemnej:
~Y=~(p*q) = ~p+~q – piąta kolumna
7.3 Dowód formalny praw Kubusia
Aksjomatyczna definicja implikacji prostej:
Kod: |
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Jak widzimy wyłącznie dla sekwencji p=1 i q=0 wynik p=>q=0.
Aksjomatyczna definicje implikacji odwrotnej:
Kod: |
p q p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Jak widzimy wyłącznie dla sekwencji p=0 i q=1 wynik p~>q=0.
Oczywiście matematycznie zachodzi:
p=>q ## p~>q
bo to dwie różne definicje zero-jedynkowe.
Dowód formalny praw Kubusia:
Kod: |
p q p=>q p~>q ~p ~q ~p~>~q ~p=>~q
1 1 =1 =1 0 0 =1 =1
1 0 =0 =1 0 1 =0 =1
0 0 =1 =1 1 1 =1 =1
0 1 =1 =0 1 0 =1 =0
|
Kolumny od 1 do 4 to definicje implikacji prostej => (3) i odwrotnej ~> (4).
Matematycznie zachodzi równanie ogólne implikacji:
p=>q = ~p~>~q ## p~>q = ~p=>~q
Analogicznie jak w operatorach OR i AND zachodzi:
p+q = ~(~p*~q) ## p*q = ~(~p+~q)
Cała tabela to matematyczny dowód praw Kubusia:
Identyczność kolumn 3 i 7 jest dowodem poprawności prawa Kubusia dla operatora p=>q:
p=>q = ~p~>~q – prawo zamiany operatora implikacji prostej => na implikacje odwrotną ~>
Identyczność kolumn 4 i 8 jest dowodem poprawności prawa Kubusia dla operatora p~>q:
p~>q = ~p=>~q – prawo zamiany operatora implikacji odwrotnej ~> na implikacje prostą =>
7.4 Prawo braku przemienności argumentów w implikacji
Dowód formalny braku przemienności argumentów w implikacji:
Kod: |
| Punkt | Punkt
| odniesienia | odniesienia
| p=>q | p~>q
| |
p q | p=>q q=>p | p~>q q~>p
1 1 | =1 =1 | =1 =1
1 0 | =0 =1 | =1 =0
0 0 | =1 =1 | =1 =1
0 1 | =1 =0 | =0 =1
P8=>P2=1 P2=>P8=0 | P2~>P8=1 P8~>P2=0
p=>q=1 q=>p=0 | p~>q=1
|
Argumenty w operatorach implikacji nie są przemienne czyli:
p=>q # q=>p
Przykład:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1
P8=>P2=1 # P2=>P8=0 bo 2
p~>q # q~>p
Przykład:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8=1
P2~>P8=1 # P8~>P2=0
Dowód iż P8~>P2=0 jest banalny.
Wyrocznia implikacji, prawo Kubusia:
P8~>P2 = ~P8=>~P2=0 bo 2
Prawa strona jest fałszem, zatem lewa strona nie może być implikacja odwrotną prawdziwą.
Zauważmy, że na mocy definicji zachodzi:
A.
p=>q ## p~>q
P8=>P2 ## P2~>P8
Wszelkie prawa logiczne formułowane są dla prawdy, czyli mamy:
B.
p=>q=1 ## p~>q=1
P8=>P2=1 ## P2~>P8=1
gdzie:
## - różne funkcje logiczne
Jeśli w B zachodzi:
p=>q=1
P8=>P2=1
to na pewno zachodzi
C.
q=>p=0
P2=>P8=0
Na mocy braku przemienności argumentów w implikacji.
Na mocy równania B mamy:
D.
Definicja implikacji odwrotnej.
p~>q=1
P2~>P8=1
Jak widzimy równość kolumn wynikowych:
q=>p = p~>q
jest pozorna, bowiem w rzeczywistości zachodzi:
q=>p=0 # p~>q=1
P2=>P8=0 # P2~>P8=1
Ten banalny błąd, popełniany przez współczesną logikę, jest przyczyną jej klęski w matematycznym opisie otaczającego nas świata rzeczywistego, z językiem mówionym na czele.
7.5 Twierdzenie Prosiaczka
Dowolną tabelę zero-jedynkową możemy opisać jednoznacznie równaniem algebry Boole’a i odwrotnie, czyli na podstawie dowolnego równania algebry Boole’a możemy wygenerować jednoznaczną tabelę zero- jedynkową.
W tym przypadku:
Równania algebry Boole’a = Równania algebry Kubusia
Twierdzenie Prosiaczka mówi o sposobie przejścia z tabeli zero-jedynkowej n-elementowej do równania algebry Boole’a opisującego tą tabelę.
Definicja zero-jedynkowa sumy logicznej:
Kod: |
p q Y=p+q
1 1 =1
1 0 =1
0 1 =1
0 0 =0
|
Kubuś, nauczyciel logiki w I klasie LO w stumilowym lesie:
Kto potrafi z powyższej tabeli zero-jedynkowej wygenerować równanie algebry Boole’a ?
Wszystkie ręce w górze, do tablicy podchodzi Jaś:
W ostatniej linii w wyniku mamy samotne zero, zatem dla tej linii możemy zapisać najprostsze równanie.
Z tabeli widzimy że:
A.
Y=0 <=> p=0 i q=0
Przejście z takiego zapisu do równań algebry Boole’a jest banalne. Należy skorzystać z definicji iloczynu logicznego sprowadzając wszystkie zmienne do jedynki albo z definicji sumy logicznej sprowadzając wszystkie zmienne do zera.
Sposób I.
Sprowadzam wszystkie zmienne do jedynki dzieli czemu w równaniu algebry Boole’a możemy się pozbyć bezwzględnych zer i jedynek:
B.
Y=0 czyli ~Y=1
p=0 czyli ~p=1
q=0 czyli ~q=1
Definicja iloczynu logicznego (logika dodatnia):
Iloczyn logiczny jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Y=p*q
Y=1 <=> p=1 i q=1
Korzystając z A i B na podstawie tej definicji mamy:
~Y = ~p*~q
Przechodzimy do logiki przeciwnej metodą przedszkolaka negując wszystkie zmienne i wymieniając operator AND(*) na OR(+):
Y = p+q
Sposób II
Sprowadzamy wszystkie zmienne do zera i stosujemy definicję sumy logicznej.
Definicja sumy logicznej (logika ujemna):
Suma logiczna jest równa zeru wtedy i tylko wtedy gdy wszystkie składniki sumy są równe zeru
Y=p+q
Y=0 <=>p=0 i q=0
Zauważmy, że mamy tu niezgodność zapisu z naturalną logiką człowieka.
W równaniu algebry Boole’a mamy OR(+) - spójnik „lub”:
Y=p+q
natomiast w szczegółowej rozpisce mamy AND(*) - spójnik „i”:
Y=0 <=>p=0 i q=0
dlatego to jest logika ujemna.
W równaniu A wszystkie zmienne są równe zeru, zatem tu nic nie musimy robić, od razu mamy równanie algebry Boole’a dla powyższej tabeli zero-jedynkowej.
Y=p+q
Kubuś:
Jasiu, zapisałeś równanie algebry Boole’a wyłącznie dla ostatniej linii, skąd wiesz jakie będą wartości logiczne w pozostałych liniach, nie opisanych tym równaniem ?
Twierdzenie Prosiaczka:
Równania algebry Boole’a dla dowolnej tabeli zero-jedynkowej n-elementowej tworzymy na podstawie linii z tą samą wartością logiczną w wyniku. Wszelkie nie opisane równaniem linie przyjmą wartości przeciwne do linii opisanych. Dla dowolnej tabeli zero-jedynkowej możliwe jest wygenerowanie ośmiu równań algebry Boole’a.
Powyżej ułożyliśmy równanie wyłącznie dla ostatniej linii tabeli gdzie w wyniku było zero, wszelkie pozostałe linie, zgodnie z prawem Prosiaczka muszą być jedynkami niezależnie od chciejstwa człowieka … bo to jest matematyka przecież.
Kubuś:
Z tego co mówisz wynika, że dla powyższej tabeli można ułożyć równoważne równania dla linii z jedynkami w wyniku, czy potrafisz je zapisać ?
Jaś:
Postępujemy identycznie jak wyżej !
Korzystnie jest tu przejść do tabeli symbolicznej w logice dodatniej przyjmując:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
Stąd mamy definicję sumy logicznej w wersji symbolicznej:
Kod: |
Dotrzymam słowa (Logika dodatnia bo Y) gdy:
Y=p+q = p*q+p*~q+~p*q
p* q = Y /1 1 =1
p*~q = Y /1 0 =1
~p* q = Y /0 1 =1
Skłamię (logika ujemna bo ~Y) gdy:
~p*~q =~Y /0 0 =0
|
Stąd równoważne równanie algebry Boole’a dla samych jedynek (Y) przybierze postać:
C.
Y=p+q = (p*q)+(p*~q)+(~p*q)
Z powyższym równaniem możemy przejść do logiki ujemnej negując sygnały i wymieniając operatory na przeciwne.
D.
~Y = ~p*~q = (~p+~q)*(~p+q)*(p+~q)
Negujemy stronami przechodząc do logiki dodatniej:
Y = ~[~p*~q] = ~[(~p+~q)*(~p+q)*(p+~q)]
Z powyższego wynika że to samo zdanie:
Y=p+q
możemy wypowiedzieć na wiele różnych sposobów.
W naturalnym języku mówionym najczęściej używamy formy najprostszej jak wyżej. Część z możliwych zdań równoważnych będzie dla człowieka trudno zrozumiała.
Przykład:
A1.
Jutro pójdę do kina lub do teatru
Y=K+T
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów.
A2.
Skłamię (~Y=1) gdy jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y=~K*~T
związek logiki dodatniej i ujemnej:
Y=~(~Y)
stąd:
Y = K+T = ~(~K*~T)
A3.
Nie może się zdarzyć, że jutro nie pójdę do kina i nie pójdę do teatru
Y = K+T = ~(~K*~T)
A4.
Wyłącznie negujemy równanie A1:
~Y = ~(K+T)
Skłamię (~Y) jeśli nie zdarzy się ~(…), że jutro pójdę do kina (K=1) lub do teatru (T=1)
Analogiczną serie zdań otrzymamy dla równań równoważnych ułożonych dla jedynek w definicji zero-jedynkowej sumy logicznej.
B1.
Y=K+T = K*T+K*~T+~K*T
czyli:
Dotrzymam słowa, jeśli wystąpi którekolwiek zdarzenie:
K*T – byłem w kinie i w teatrze
K*~T – byłem w kinie i nie byłem w teatrze
~K*T – nie byłem w kinie i byłem w teatrze
Oczywiście wyłącznie jedno z powyższych zdarzeń ma szansę wystąpić w rzeczywistości.
… a kiedy skłamię ?
Przejście ze zdaniem B1 do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne:
B2.
~Y = (~K+~T)*(~K+T)*(K+~T)
Negujemy dwustronnie i mamy kolejne możliwe zdanie:
B3.
Y = ~[(~K+~Y)*(~K+T)*(K+~T)]
Ostatnie możliwe zdanie otrzymujemy negując dwustronnie B1:
B4.
~Y= ~[(K*T)+(K*~T)+(~K*T)]
Mamy wyżej fantastyczną możliwość powiedzenia tego samego na wiele różnych sposobów. Wszystkie zdania z wyjątkiem B2 i B3 są dla przeciętnego człowieka intuicyjnie zrozumiałe !
Zdania B2 i B3 to rozbudowane zdania ze zmiennymi w logice ujemnej w stosunku do zdania wypowiedzianego A1.
7.6 Związek operatorów OR i AND z operatorami implikacji
Definicja zero-jedynkowa implikacji prostej:
Kod: |
p q Y=p=>q
1 1 =1 /p=>q=1 – twarda prawda, gwarancja matematyczna
1 0 =0 /p=>~q=0
0 0 =1 /~p~>~q=1 – miękka prawda, może zajść ale nie musi
0 1 =1 /~p~~>q=1 - miękka prawda, może zajść ale nie musi
|
Na mocy prawa Prosiaczka najprostsze równanie algebry Kubusia ułożymy dla drugiej linii, w wyniku mamy samotne zer.
Y=0 <=> p=1 i q=0
Sprowadzając wszystkie zmienne do jedynek otrzymujemy:
~Y=1 <=> p=1 i ~q=1
Opuszczamy jedynki otrzymując równanie algebry Kubusia:
~Y = p*~q
stąd:
Y = ~(p*~q)
czyli:
p=>q = ~(p*~q)
Przykład:
A.
Jeśli zwierze jest psem to na pewno ma cztery łapy
Y = P=>4L=~(P*~4L)
Zdanie matematycznie równoważne:
B.
Nie może się zdarzyć ~(…), że zwierze jest psem (P=1) i nie ma czterech łap (~4L=1)
Y = ~(P*~4L) = P=>4L
Poza tym wszystko może się zdarzyć.
W praktyce języka mówionego zdanie B wypowiadamy niezwykle rzadko np. jako odpowiedź na pytanie:
Czy może się zdarzyć, że zwierze jest psem i nie ma czterech łap ?
Bez takiego pytania zdanie B jest mało sensowne, dlatego w praktyce nikt nie zastępuje implikacyjnego spójnika na pewno => spójnikiem „i”.
Zauważmy, że na mocy prawa de’Morgana mamy:
Y= P=>4L = ~(P*~4L) = ~P+4L
Tu to już mamy prawdziwą katastrofę bowiem zdanie równoważne do A brzmi:
C.
Zwierze nie jest psem (~P=1) lub ma cztery łapy (4L=1)
Y= P=>4L = ~(P*~4L) = ~P+4L
Zauważmy, że zdanie B zrozumie każdy przedszkolak, natomiast zdanie C to czarna magia dla człowieka. Nie wszystkie zdania wynikłe z algebry Kubusia są dla człowieka intuicyjnie zrozumiałe.
Największą tragedią przy opisie implikacji operatorem AND (bo OR odpada) jest brak możliwości rozróżnienia twardej prawdy (spójnik „musi” =>) od prawdy miękkiej (spójnik „może” ~>). Traktowanie wszystkich trzech jedynek w definicji implikacji jako równorzędnych prawd twardych (Klasyczny Rachunek Zdań) rozkłada całkowicie zarówno dwuelementową algebrę Boole’a jak i dwuelementowa algebrę Kubusia.
Definicja zero-jedynkowa implikacji odwrotnej:
Kod: |
p q Y=p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Na mocy prawa Prosiaczka najprostsze równanie algebry Kubusia ułożymy dla ostatniej linii, gdzie w wyniku mamy samotne zer.
Y=0 <=> p=0 i q=1
Sprowadzając wszystkie zmienne do jedynek otrzymujemy:
~Y=1 <=> ~p=1 i q=1
Opuszczamy jedynki otrzymując równanie algebry Kubusia:
~Y = ~p*q
stąd:
Y = ~(~p*q)
czyli:
p~>q = ~(~p*q)
Przykład:
A.
Jeśli zwierzę ma cztery łapy to może być psem
Y = 4L~>P = ~(~4L*P)
Zdanie matematycznie równoważne:
B.
Nie może się zdarzyć ~(…), że zwierze nie ma czterech łap (~4L=1) i jest psem (P=1)
Y = ~(~4L*P) = 4L~>P
Poza tym wszystko może się zdarzyć.
W praktyce języka mówionego zdanie B wypowiadamy niezwykle rzadko np. jako odpowiedź na pytanie:
Czy może się zdarzyć, że zwierze nie ma czterech łap i jest psem ?
Bez takiego pytania zdanie B jest mało sensowne, dlatego w praktyce nikt nie zastępuje implikacyjnego spójnika na może ~> spójnikiem „i”.
Zauważmy, że że na mocy prawa de’Morgana mamy:
Y= 4L~>P = ~(~4L*P) = 4L+~P
I znów mamy prawdziwą katastrofę bowiem zdanie równoważne do A brzmi:
C.
Zwierze ma cztery łapy lub nie jest psem
Y= 4L~>P = ~(~4L*P) = 4L+~P
Zauważmy, że zdanie B zrozumie każdy przedszkolak, natomiast zdanie C to czarna magia dla człowieka to katastrofa czyli „nikt nic nie wie”
Podsumowując:
1.
Zastępowanie operatorów implikacji operatorami OR i AND jest bez sensu, w praktyce naturalnego języka mówionego nikt tego nie robi !
2.
Operator implikacji prostej => i odwrotnej ~> są w logice absolutnie niezbędna.
8.0 Algebra Kubusia w zbiorach
Działanie operatorów implikacji i równoważności można bardzo ładnie zilustrować przy pomocy zbiorów.
8.1 Podstawowe definicje z teorii zbiorów w algebrze Kubusia
Pojęcie zbioru jako zbioru przypadkowych elementów jest matematycznie bez sensu.
Jednorodność zbioru:
Zbiór musi być jednorodny w określonej dziedzinie
Oznacza to, że dla dowolnego zbioru A musi istnieć zbiór ~A będący dopełnieniem zbioru A do określonej dziedziny.
Przykład 1
P – zbiór wszystkich psów
Dziedzina:
ZWZ = zbiór wszystkich zwierząt
Dopełnienie ~P:
~P = wszystkie inne zwierzęta za wyjątkiem psów
Oczywiście matematycznie zachodzi:
ZWZ=P+~P
oraz:
P+~P=1
P*~P=0
Przykład 2
P2 – zbiór liczb podzielnych przez 2
Dziedzina:
LN = zbiór liczb naturalnych
Dopełnienie ~P2:
~P2 – zbiór liczb naturalnych niepodzielnych przez 2
Oczywiście matematycznie zachodzi:
LN=P2+~P2
P2+~P2=1
P2*~P2=0
W implikacji prostej => w AK p musi być podzbiorem q np.
Jeśli zwierze jest psem to ma cztery łapy
P=>4L
Zbiór psów jest tu tylko podzbiorem zwierząt mających cztery łapy.
W algebrze Kubusia interesuje nas pojęcie zbioru i operacje na zbiorach w odniesieniu do implikacji i równoważności.
Podstawowe definicje:
Dziedzina:
Implikacja:
p=>q
Jeśli p to q
Równoważność
p<=>q
p wtedy i tylko wtedy gdy q
Dziedzina to kompletny zbiór na którym operuje implikacja lub równoważność
W algebrze Kubusia musi być spełnione:
p+~p=1 – dziedzina po stronie p
q+~q=1 – dziedzina po stronie q
Zbiór bieżący (aktualny):
Zbiór bieżący (aktualny) to zbiór na którym aktualnie pracujemy, zdefiniowany szczegółowo w poprzedniku zdania „Jeśli…to…”
Operacje na zbiorach dla potrzeb algebry Kubusia:
1.
Zbiory tożsame = identyczne
TR = zbiór trójkątów równobocznych
KR = zbiór trójkątów o równych kątach
Oczywiście zachodzi tożsamość:
Zbiór trójkątów równobocznych = Zbiór trójkątów o równych kątach
Zbiór TR = Zbiór KR
2.
Iloczyn zbiorów = wspólna cześć zbiorów bez powtórzeń (operacja AND)
Y=A*B
A=[1,2], B=[1,2,3,4]
Y=A*B=[1,2]
3.
Suma logiczna zbiorów = wszystkie elementy zbiorów bez powtórzeń (operacja OR)
Y=A+B
A=[1,2], B=[1,2,3,4]
Y=A+B = [1,2,3,4]
4.
Różnica zbiorów A-B = elementy zbioru A pomniejszone o cześć wspólna zbiorów A i B
Y=A-B
A=[1,2,3,4], B=[1,2]
Y=A-B = [3,4]
Y=B-A = 0 – zbiór pusty !
5.
Zbiór pusty = brak wspólnej części zbiorów w operacji AND, albo różnica zbiorów pusta jak wyżej
Y=A*B=0
A=[1,2], B=[3,4]
Y=A*B =0 – brak części wspólnej, zbiór pusty !
Twierdzenie – jedno z najważniejszych w algebrze Kubusia:
Przy określaniu prawdziwości konkretnego zdania zawsze iterujemy po zbiorze bieżącym, zdefiniowanym w poprzedniku zdania „Jeśli…to…”.
Iterowanie po całej dziedzinie jest bez sensu bowiem nie ma to nic wspólnego z prawdziwością analizowanego zdania. Co więcej, dla zdań spoza zbioru bieżącego analizowane zdanie jest po prostu FAŁSZYWE !
Przykład:
Jeśli liczba jest podzielna przez 3 to może być podzielna przez 8
P3~~>P8=1 bo 24
Dziedzina = zbiór wszystkich liczb naturalnych
P3 = zbiór bieżący (aktualny) zdefiniowany w poprzedniku
P3 = [3,6,9…] - zbiór liczb podzielnych przez 3
Uwaga:
Powyższe zdanie dla zbioru ~P3 po stronie p jest fałszywe - sprzeczność z założeniem „Jeśli liczba jest podzielna przez 3…”
Przykład implikacji prostej:
Jeśli liczba jest podzielna przez 8 to (na pewno) jest podzielna przez 2
P8=>P2
Spójnik "na pewno" jest w logice domyślny
Dziedzina = zbiór liczb naturalnych
Zbiór bieżący na którym pracujemy w tym zdaniu definiuje poprzednik implikacji:
P8 = [8,16,24…] – zbiór liczb podzielnych przez 8
Powyższe zdanie jest fałszywe dla zbioru liczb ~P8 po stronie p - sprzeczność z założeniem „Jeśli liczba jest podzielna przez 8…”
8.2 Implikacja prosta w zbiorach
Z rysunku widzimy, że warunkiem zaistnienia implikacji prostej => jest aby zbiór p był podzbiorem zbioru q bowiem wtedy i tylko wtedy zdanie będzie implikacja prostą.
Dziedzina w której operuje powyższy schemat:
Dziedzina = p+~p = q+~q
co doskonale widać na rysunku.
Wynika z tego, że zbiory p i q musza należeć do tej samej dziedziny.
Definicja operatorowa implikacji prostej:
Kod: |
A:
Jeśli zajdzie p to na pewno => zajdzie q
p=>q =1
p*q=1 – iloczyn logiczny zbiorów p i q (zielony obszar)
1 1 =1
stąd wynika:
B:
Jeśli zajdzie p to na pewno zajdzie ~q
p=>~q=0
p*~q=0 – zbiór pusty, bo zbiory p i ~q są rozłączne !
1 0 =0
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p=>q = ~p~>~q
Stąd:
C:
Jeśli zajdzie ~p to może zajść ~q
~p~>~q=1
~p*~q=1 – iloczyn logiczny zbiorów ~p i ~q (czerwony obszar)
0 0 =1
LUB
D:
Jeśli zajdzie ~p to może zajść q
~p~~>q=1
~p*q=1 – iloczyn logiczny zbiorów ~p i q (żółty obszar)
0 1 =1
|
Doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem A:
p=1, ~p=0
q=1, ~q=0
Przykłady:
A.
Jeśli zwierze jest psem to ma cztery łapy
P=>4L
Implikacja prosta: p musi być podzbiorem q
Pies jest podzbiorem zwierząt mających 4 łapy, z czego wynika że istnieje żółty zbiór q-p, zdanie jest implikacja prostą.
B.
Jeśli jutro będzie padało to na pewno będzie pochmurno
P=>CH
Implikacja prosta: p musi być podzbiorem q
Deszcz jest podzbiorem stanu „pochmurne niebo”, co oznacza że może nie padać a chmury mogą być. Wynika z tego istnienie stanu q-p, czyli mamy sytuację „brak deszczu i jest pochmurno”, zatem zdanie jest implikacją prostą.
C.
Jeśli liczba jest podzielna przez 8 to na pewno jest podzielna przez 2
P8=>P2
Implikacja prosta: p musi być podzbiorem q
Zbiór P8 jest podzbiorem zbioru P2, z czego wynika że istnieje zbiór q-p, zdanie jest implikacja prostą.
… i teraz uwaga !
D.
Jeśli trójkąt jest równoboczny to ma kąty równe
TR=>KR
Zbiór trójkątów równobocznych jest dokładnie tym samym zbiorem co zbiór trójkątów o równych kątach. Wynika z tego że żółty zbiór q-p jest zbiorem pustym, co oznacza że całe zdanie jest tylko warunkiem wystarczającym wchodzącym w skład równoważności o następującej definicji.
p<=>q = (p=>q)*(q=>p)
czyli:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(KR=>TR)
Przykład analizy implikacji prostej w algebrze Kubusia
Kod: |
A.
Jeśli zwierze jest psem to na pewno => ma cztery łapy
P=>4L=1 bo pies, twarda prawda, gwarancja matematyczna
1 1 =1
Bycie psem jest warunkiem wystarczającym, aby mieć cztery łapy
plus spełnione jest tu prawo Kubusia co oznacza że zdanie spełnia definicję zero-jedynkową implikacji prostej.
stąd:
B.
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L=0 bo wszystkie psy maja cztery łapy
1 0 =0
… a jeśli zwierzę nie jest psem ?
Prawo Kubusia:
P=>4L= ~P~>~4L
C.
Jeśli zwierzę nie jest psem to może ~> nie mieć czterech łap
~P~>~4L=1 bo wąż, kura
0 0 =1
LUB
D.
Jeśli zwierze nie jest psem to może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń, koń
0 1 =1
|
Doskonale widać tabele zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
P=1, ~P=0
4L=1, ~4L=0
Zdanie d nie może być implikacją odwrotną prawdziwą.
Dlaczego ?
Dowód nie wprost:
Załóżmy że D jest implikacją odwrotną i zastosujmy wyrocznię implikacji, prawo Kubusia:
D: ~P~~>4L = B: P=>~4L=0
Prawa strona jest twardym fałszem, zatem lewa nie może być implikacja odwrotna prawdziwą, co oznacza, że w zdaniu D nie zachodzi warunek konieczny.
Prawdziwość zdania D określa wzór:
(~P~>4L)+(~P~~>4L) = 0 + 1 =1
Zdanie D jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy znaleźć jeden przypadek prawdziwy.
8.3 implikacja odwrotna w zbiorach
Doskonale widać, że w tym przypadku zbiór q musi być podzbiorem zbioru p. Wtedy i tylko wtedy zdanie będzie spełniało definicję implikacji odwrotnej.
Dziedzina w której operuje powyższy schemat:
Dziedzina = p+~p = q+~q
co doskonale widać na rysunku.
Wynika z tego, że zbiory p i q musza należeć do tej samej dziedziny.
Definicja operatorowa implikacji odwrotnej:
Kod: |
A:
Jeśli zajdzie p to może zajść q
p~>q =1
p*q=1 – iloczyn logiczny zbiorów p i q (zielony obszar)
1 1 =1
LUB
B:
Jeśli zajdzie p to może zajść ~q
p~~>~q=1
p*~q=1 – iloczyn logiczny zbiorów p i ~q (żółty obszar)
1 0 =1
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p~>q = ~p=>~q
Stąd:
C:
Jeśli zajdzie ~p to na pewno zajdzie ~q
~p=>~q=1
~p*~q=1 – iloczyn logiczny zbiorów ~p i ~q (czerwony obszar)
0 0 =1
Stąd:
D:
Jeśli zajdzie ~p to na pewno zajdzie q
~p=>q=0
~p*q=0 – zbiór pusty, bo zbiory ~p i q są rozłączne !
0 1 =0
|
Doskonale widać tabelę zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem A:
p=1, ~p=0
q=1, ~q=0
Przykłady:
A.
jeśli zwierzę ma cztery łapy to może być psem
4L~>P
Implikacja odwrotna: q musi być podzbiorem p
Pies jest podzbiorem zwierząt mających 4 łapy, z czego wynika że istnieje żółty zbiór p-q, zdanie jest implikacja prostą.
B.
Jeśli jutro będzie pochmurno to może padać
CH~>P
Implikacja odwrotna: q musi być podzbiorem p
Deszcz jest podzbiorem stanu „pochmurne niebo”, co oznacza że może nie padać a chmury mogą być. Wynika z tego istnienie stanu p-q, czyli mamy sytuację „brak deszczu i jest pochmurno”, zatem zdanie jest implikacją prostą.
C.
Jeśli liczba jest podzielna przez 2 to może być podzielna przez 8
P2~>P8
Implikacja odwrotna: q musi być podzbiorem p
Zbiór P8 jest podzbiorem zbioru P2, z czego wynika że istnieje zbiór p-q, zdanie jest implikacja prostą.
… i teraz uwaga !
D.
Jeśli trójkąt jest równoboczny to ma kąty równe
TR=>KR
Zbiór trójkątów równobocznych jest dokładnie tym samym zbiorem co zbiór trójkątów o równych kątach. Wynika z tego że żółty zbiór p-q jest zbiorem pustym, co oznacza że całe zdanie jest tylko warunkiem wystarczającym wchodzącym w skład równoważności o następującej definicji.
p<=>q = (p=>q)*(q=>p)
czyli:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(KR=>TR)
Przykład analizy implikacji odwrotnej w algebrze Kubusia
Kod: |
A.
Jeśli zwierze ma cztery łapy to może ~> być psem
4L~>P =1 bo pies
1 1 =1
Cztery łapy są konieczne aby być psem, co wymusza implikację odwrotną prawdziwą
LUB
B.
Jeśli zwierze ma cztery łapy to może ~~> nie być psem
4L~~>~P=1 bo słoń, koń
1 0 =1
… a jeśli zwierze nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
C.
Jeśli zwierze nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1 – twarda prawda, gwarancja matematyczna
0 0 =1
stąd:
D.
Jeśli zwierze nie ma czterech łap to na pewno => jest psem
~4L=>P=0
0 1 =0
|
Doskonale widać tabele zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
4L=1, ~4L=0
P=1, ~P=0
Zdanie B nie może być implikacją odwrotną prawdziwą.
Dowód.
Zakładamy że B jest implikacją odwrotną prawdziwa i korzystamy z prawa Kubusia:
B: 4L~>~P = D: ~4L=>P=0
Prawa strona jest twardym fałszem zatem B nie może być implikacją odwrotną.
Zdanie B jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy znaleźć jeden przypadek czyniący to zdanie prawdziwym.
8.4 Równoważność w zbiorach
W równoważności zbiór p jest dokładnie tym samym zbiorem co zbiór q, inaczej wypowiedzianym.
Wynika z tego że wykluczona jest tu implikacja bowiem p nie jest podzbiorem zbioru q, czyli różnica zbiorów:
p-q=0 – zbiór pusty
q-p=0 – zbiór pusty
Oczywiście dziedzina w której tu operujemy jest następująca:
Dziedzina = p+~p = q+~q
Przykład z naszego rysunku:
A.
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR
Dziedzina to zbiór wszystkich trójkątów:
Dziedzina = TR+~TR = KR+~KR
W przypadku równoważności możliwe są dwie równoważne definicje operatorowe.
I.
Definicja wynikła bezpośrednio z definicji zero-jedynkowej równoważności.
Kod: |
Definicja równoważności
p<=>q = (p=>q)*(~p=>~q)
A:
p=>q =1
p*q=1 – iloczyn logiczny zbiorów p i q, to są identyczne zbiory ! (zielony kolor)
1 1 =1
B:
p=>~q=0
p*~q=0 – zbiór pusty, bo zbiory p i ~q są rozłączne, co widać na rysunku
1 0 =0
… a jeśli zajdzie ~p ?
~p<=>~q = (~p=>~q)*(p=>q)
C:
~p=>~q=1
~p*~q=1 – iloczyn logiczny zbiorów ~p i ~q, to są identyczne zbiory ! (kolor czerwony)
0 0 =1
D:
~p=>q=0
~p*q=0 – zbiór pusty, bo zbiory ~p i q są rozłączne, co widać na rysunku
0 1 =0
|
Gdzie:
p=>q i ~p=>~q
to tylko warunki wystarczające definiowane dwoma liniami tabeli zero-jedynkowej, to nie są implikacje proste !
II.
Definicja równoważna wynikająca bezpośrednio z diagramu równoważności wyżej.
Identyczność zbiorów p i q jest dowodem równoważności:
p<=>q = (p=>q)*(q=>p)
bowiem wykluczona jest tu implikacja gdzie wymagane jest aby zbiór p-q lub q-p nie był zbiorem pustym.
W przypadku identycznych zbiorów p i q zachodzi:
p-q=0 – zbiór pusty
q-p=0 – zbiór pusty
stąd:
Definicja równoważna równoważności uwielbiana przez matematyków.
Kod: |
p<=>q = (p=>q)*(q=>p)
A:
p=>q=1
p*q=1 – iloczyn logiczny zbiorów p i q, to są identyczne zbiory ! (kolor zielony)
1 1 =1
B:
p=>~q=0
p*~q=0 – zbiór pusty, bo zbiory p i ~q są rozłączne, co widać na rysunku
W równoważności zachodzi przemienność argumentów, stąd:
q<=>p = (q=>p)*(p=>q)
A1:
q=>p=1
q*p=1 – iloczyn logiczny zbiorów q i q, to są identyczne zbiory (kolor zielony)
1 1 =1
B1:
q=>~p=0
q*~p=0 - zbiór pusty, bo zbiory q i ~p są rozłączne, co widać na rysunku
1 0 =0
|
Doskonale tu widać, że równoważność to iloczyn logiczny dwóch warunków wystarczających:
p=>q – warunek wystarczający definiowany liniami A i B w powyższej tabeli
q=>p - warunek wystarczający definiowany liniami A1 i B1 w powyższej tabeli
To nie sa implikacje proste, bowiem w równoważności nie może być mowy o „rzucaniu moneta”, czyli o warunku koniecznym p~>q.
Przykład analizy równoważności w algebrze Kubusia
Kod: |
TR<=>KR = (TR=>KR)*(~TR=>~KR)
A.
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1 – twarda prawda
1 1 =1
stąd:
B.
Jeśli trójkąt jest równoboczny to na pewno => nie ma kątów równych
TR=>~KR=0
1 0 =0
… a jeśli trójkąt nie jest równoboczny ?
TR<=>KR = ~TR<=>~KR = (~TR=>~KR)*(TR=>KR)
C.
Jeśli trójkąt nie jest równoboczny to na pewno => nie ma kątów równych
~TR=>~KR=1
0 0 =1
stąd:
D.
Jeśli trójkąt nie jest równoboczny to na pewno => ma kąty równe
~TR=>KR=0
0 1 =0
|
Doskonale widać tabele zero-jedynkową równoważności dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
TR=1, ~TR=0
KR=1, ~KR=0
8.5 Naturalny spójnik „może’ ~~> w zbiorach
Posłużymy się tu konkretnym przykładem.
1.
Jeśli liczba jest podzielna przez 8 to jest podzielna przez 3
P8=>P3
W języku mówionym spójnik „na pewno” => jest domyślny i nie musi być wypowiadany.
Wynika z tego zdanie równoważne do 1.
2.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 3
P8=>P3=0 bo 8
Sprawdźmy czy możliwa jest tu implikacja odwrotna:
3.
Jeśli liczba jest podzielna przez 3 to może ~> być podzielna przez 8
P3~>P8=0
Dowód:
Załóżmy, że zdanie 3 jest implikacją odwrotna i zastosujmy wyrocznię implikacji, prawo Kubusia:
P3~>P8 = ~P3=>~P8 =0 bo 8
Prawa strona tożsamości jest fałszem, zatem lewa nie może być implikacja odwrotną, warunek konieczny między p i q tu nie zachodzi.
Zdanie 1 jest prawdziwe z naturalnym spójnikiem ‘może” ~~>, wystarczy jeden przypadek prawdziwy.
A.
Jeśli liczba jest podzielna przez 8 to może ~~> być podzielna przez 3
P8~~>P3=1 bo 24
Analiza zero-jedynkowa tego zdania przez wszystkie możliwe przypadki jest następująca:
Kod: |
A:
Jeśli liczba jest podzielna przez 8 to może ~~> być podzielna przez 3
P8~~>P3=1 bo 24
B:
Jeśli liczba jest podzielna przez 8 to może ~~> nie być podzielna przez 3
P8~~>~P3=1 bo 8
C:
Jeśli liczba nie jest podzielna przez 8 to może ~~> nie być podzielna przez 3
~P8~~>~P3=1 bo 5
D:
Jeśli liczba nie jest podzielna przez 8 to może ~~> być podzielna przez 3
~P8~~>P3=1 bo 3
|
ilustracja graficzna powyższej analizy jest następująca:
9.0 Algebra Kubusia w służbie lingwistyki
Żaden matematyk nie zakwestionuje poniższej definicji obietnicy:
Obietnica = implikacja prosta => - to jest w każdym podręczniku matematyki do I klasy LO
To wystarczy, dalej w banalny sposób można udowodnić że:
Groźba = implikacji odwrotna ~>
Wynika to po prostu z prawa Kubusia:
p=>q = ~p~>~q
Oczywiście jeśli:
q = nagroda
to
~q = kara
Na podstawie aksjomatu znanego ludziom od tysiącleci:
nagroda to brak kary
kara to brak nagrody
CND
Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N=1
Analiza matematyczna:
A.
Jeśli spełnię warunek nagrody to na pewno => dostane nagrodę
W=>N=1 – twarda prawda, gwarancja matematyczna
1 1 =1
stąd:
B.
Jeśli spełnię warunek nagrody to na pewno => nie dostane nagrody
W=>~N=0 – kłamstwo nadawcy, nie dotrzymał danej dobrowolnie obietnicy wyżej
1 0 =0
Prawo Kubusia:
W=>N = ~W~>~N
czyli:
C.
Jeśli nie spełnię warunku nagrody to mogę nie dostać nagrody
~W~>~N=1 – miękka prawda, może zajść ale nie musi
0 0 =1
LUB
D.
Jeśli nie spełnię warunku nagrody to mogę dostać nagrodę
~W~~>N=1 – miękka prawda.
Prawo nadawcy do wręczenia nagrody mimo nie spełnienia warunku nagrody (akt miłości)
0 1 =1
Doskonale widać definicje zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym:
W=1, ~W=0
N=1, ~N=0
Ze zdania C wynika, że wszelkie groźby musimy kodować implikacją odwrotną, inaczej algebra Boole’a leży w gruzach z powodu gwałcenia prawa Kubusia poprawnego zarówno w algebrze Boole’a jak i w algebrze Kubusia.
9.1 Obietnica
Typowa obietnica:
A.
Jeśli będziesz grzeczny dostaniesz czekoladę
G=>C =1
1 1 =1 - zdanie wypowiedziane
Obietnica, zatem implikacja prosta, tu wszyscy się zgadzamy.
Skoro to implikacja prosta to:
B.
Jeśli będziesz grzeczny to na pewno => nie dostaniesz czekolady
G=>~C =0
1 0 =0
… a jak będę niegrzeczny ?
Prawo Kubusia:
G=>C = ~G~>~C
Mama:
C.
Jeśli będziesz niegrzeczny to nie dostaniesz czekolady
~G~>~C
W groźbach (zdanie C) spójnik „może” ~> jest z reguły pomijany. Nie ma to znaczenia gdyż spójnik ten jest gwarantowany przez absolutna świętość algebry Boole’a, prawo Kubusia.
Z prawa Kubusia wynika tu coś fundamentalnego:
Wszelkie groźby (zdanie C) musimy kodować operatorem implikacji odwrotnej, inaczej algebra Boole’a leży w gruzach.
Matematyczne znaczenie zdania C jest oczywiście takie:
C.
Jeśli będziesz niegrzeczny to możesz ~> nie dostać czekolady
~G~>~C =1
0 0 =1
LUB
D.
Jeśli będziesz niegrzeczny to możesz ~~> dostać czekoladę
~G~~>C =1
0 1 =1 - akt miłości
gdzie:
~~> - naturalne "może", wystarczy jedna prawda, nie jest to operator implikacji odwrotnej ~>, zatem warunek konieczny tu nie zachodzi.
Doskonale tu widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
G=1, ~G=0
C=1, ~C=0
Oczywiście z powyższej analizy matematycznej wynika, że wszelkie groźby muszą być kodowane implikacją odwrotną:
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L - implikacja odwrotna bo groźba
Z powyższego mamy definicję obietnicy i groźby …
Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N =1 - twarda prawda
Implikacja prosta bo dobrowolnych obietnic musimy dotrzymywać
Spełnienie warunku nagrody jest warunkiem wystarczającym dla otrzymania nagrody
Prawo Kubusia:
W=>N = ~W~>~N
Gwarancja w implikacji jest zawsze operator implikacji prostej:
W=>N
Jeśli spełnię warunek nagrody to na pewno => dostanę nagrodę z powodu że spełniłem warunek nagrody … poza tym wszystko może się zdarzyć.
W obietnicy nadawca ma nadzieję (marzenie), że odbiorca spełni warunek nagrody i będzie mógł wręczyć nagrodę. Jeśli odbiorca nie spełni warunku nagrody to nadawca może dać nagrodę lub nie zgodnie ze swoim „widzi mi się”, czyli wolną wolą.
Po stronie odbiorcy występuje nadzieja (marzenie), że nawet jeśli nie spełni warunku nagrody to może otrzymać nagrodę (akt miłości). Odbiorca może zwolnić nadawcę z obietnicy np. w przypadkach losowych.
9.2 Groźba
Definicja groźby:
Jeśli dowolny warunek to kara
W~>K =1
Implikacja odwrotna bo nadawca może ukarać, ale nie musi.
Spełnienie warunku kary jest warunkiem koniecznym ukarania z powodu spełnienia warunku kary. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.
Gwarancja w groźbie wynika z prawa Kubusia:
W~>K = ~W => ~K
Stąd gwarancja:
~W => ~K
Jeśli nie spełnię warunku kary to na pewno => nie zostanę ukarany z powodu nie spełnienia warunku kary. Poza tym wszystko może sie zdarzyć.
W groźbie nadawca ma nadzieję (marzenie), że odbiorca nie spełni warunku kary i nie będzie musiał karać. Jeśli odbiorca spełni warunek kary to nadawca może wykonać karę lub ją darować zgodnie ze swoim „widzi mi się”, czyli wolną wolą.
Po stronie odbiorcy również występuje nadzieja (marzenie), że nawet jeśli spełni warunek kary to nadawca nie wykona kary (akt łaski). W groźbie decyzję o darowaniu kary podejmuje wyłącznie nadawca, odbiorca nie ma tu nic do powiedzenia.
Przykład:
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L - implikacja odwrotna bo groźba
Brudne spodnie są warunkiem koniecznym lania z powodu brudnych spodni, zatem implikacja odwrotna prawdziwa. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.
W groźbach naturalny spójnik implikacji odwrotnej „może” ~> jest z reguły pomijany bo osłabiałby groźbę. Nie prowadzi to do niejednoznaczności, gdyż definicje groźby i obietnicy są bardzo proste i precyzyjne.
Analiza:
A:
Jeśli ubrudzisz spodnie to możesz ~> dostać lanie
B~>L =1
1 1 =1
LUB
B:
Jeśli ubrudzisz spodnie to możesz nie dostać lania
B ~~> ~L =1 - prawo do darowania kary (akt łaski)
1 0 =1
Zdanie prawdziwe na mocy naturalnego spójnika „może” ~~>, nie jest to implikacja odwrotna.
Nadawca ma prawo do darowania dowolnej kary (akt łaski)
… a jeśli nie ubrudzę spodni ?
B~>L = ~B => ~L - prawo Kubusia
czyli:
C:
Jeśli nie ubrudzisz spodni to na pewno => nie dostaniesz lania
~B => ~L =1 - twarda prawda (gwarancja)
0 0 =1
Na mocy definicji operatora implikacji prostej => mamy:
Jeśli nie ubrudzisz spodni to na pewno => nie dostaniesz lania z powodu czystych spodni. Poza tym wszystko może się zdarzyć. Tylko tyle i aż tyle gwarantuje operator implikacji prostej =>.
stąd:
D:
Jeśli nie ubrudzisz spodni to na pewno => dostaniesz lanie
~B => L =0 - twardy fałsz, zakaz karania niewinnego z powodu czystych spodni
0 1 =1
Doskonale widać tabelę zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
B=1, ~B=0
L=1, ~L=0
Dlaczego zdanie B nie może być implikacja odwrotną ?
Dowód nie wprost:
Załóżmy że zdanie B: B~>~L jest implikacja odwrotną.
Obowiązuje wówczas prawo Kubusia:
B: B~>~L = D: ~B=>L
Zdanie D: jest oczywistym fałszem, zatem zdanie B nie może być implikacją odwrotną prawdziwą.
Prawdziwość zdania B: określa wzór:
(B~~>~L)+(B~>~L) = 1+0 =1
gdzie:
~~> - naturalny spójnik może, wystarczy jedna prawda, nie jest to operator implikacji odwrotnej zatem warunek koniczny tu nie zachodzi.
Jedyne sensowne przejście z operatora implikacji odwrotnej do implikacyjnych AND(*) i OR(+) to odpowiedź na pytanie dziecka „kiedy wystąpi kłamstwo”:
Jeśli ubrudzisz spodnie dostaniesz lanie
Y=B~>L
Jaś:
… tata, a kiedy skłamiesz ?
Y=B~>L = B+~L = ~(~B*L) - dotrzymam słowa
Negujemy dwustronnie:
~Y=~(B~>L) = ~B*L - skłamię
Skłamię (~Y=1), jeśli przyjdziesz w czystych spodniach (~B) i dostaniesz lanie (z powodu czystych spodni !)
~Y=~B*L
Jaś:
… a czy może się zdarzyć że przyjdę w czystych spodniach i dostanę lanie ?
Y=~(~Y) - prawo podwójnego przeczenia, stąd:
Y=~(~B*L)
Nie może się zdarzyć że przyjdziesz w czystych spodniach (~B) i dostaniesz lanie (z powodu czystych spodni)
Y=~(~B*L)
Zauważmy, że ostatnie pytanie Jasia jest mało prawdopodobne bo odpowiedź dostał wcześniej.
W obietnicach i groźbach bardzo dobrze widać sens logiki dodatniej i ujemnej w operatorach implikacji prostej => i odwrotnej ~>.
Definicja logiki dodatniej i ujemnej w operatorach => i ~>:
Implikacja wypowiedziana jest w logice dodatniej jeśli po stronie q nie występuje negacja, inaczej mamy do czynienia z logiką ujemną.
Obietnica
Prawo Kubusia:
W=>N = ~W~>~N - prawo zamiany obietnicy => na równoważną groźbę ~>
Obietnica => w logice dodatniej (N) jest równoważna groźbie ~> w logice ujemnej (~N)
Groźba
Prawo Kubusia:
W~>K = ~W=>~K - prawo zamiany groźby ~> na równoważną obietnicę =>
Groźba ~> w logice dodatniej (K) jest równoważna obietnicy => w logice ujemnej (~K)
Piękna jest też następująca interpretacja obietnicy i groźby.
Kod: |
p q p~>q p<=q
1 1 =1 =1
1 0 =1 =1
0 0 =1 =1
0 1 =0 =0
|
gdzie:
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Z tabeli widzimy że:
~> = <= - pod warunkiem że symbol <= będziemy czytać przeciwnie do strzałki jako spójnik „może” z warunkiem koniecznym (operator implikacji odwrotnej)
Obietnica:
W=>N - ja tego chcę, biegnę do nagrody
=> czytane zgodnie ze strzałką jako spójnik „musi” z warunkiem wystarczającym
Groźba:
W~>K = W<=K - ja tego nie chcę, uciekam od kary
gdzie:
<= - czytane przeciwnie do strzałki jako spójnik „może” z warunkiem koniecznym
Odróżnianie nagrody od kary to fundament wszelkiego życia. Zwierzątka które tego nie odróżniają, czyli wszystko co się rusza traktują jako nagrodę (ja tego chcę) skazane są na zagładę.
W Australii żyje sobie żółw błotny który na języku ma wyrostek imitujący żywego robaka, ryba która nabierze się na ten podstęp musi zginąć.
|
|
Powrót do góry |
|
|
|
|
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach
|
fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
|