|
ŚFiNiA ŚFiNiA - Światopoglądowe, Filozoficzne, Naukowe i Artystyczne forum - bez cenzury, regulamin promuje racjonalną i rzeczową dyskusję i ułatwia ucinanie demagogii. Forum założone przez Wuja Zbója.
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35368
Przeczytał: 20 tematów
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Śro 17:24, 15 Lip 2009 Temat postu: Algebra Kubusia - matematyka języka mówionego v.Beta 9.0 |
|
|
Narzędzia, których próbujemy używać, język lub notacja których używamy do wyrażenia lub rejestrowania naszych myśli, są głównymi czynnikami określającymi to, co w ogóle możemy myśleć lub wyrazić.
E.W. Dijkstra
Algebra Kubusia
Matematyka języka mówionego
Artykuł związany z publikacją:
Pytania do matematyków całego świata
Autor: Kubuś - wirtualny Internetowy Miś
Kim jest Kubuś ?
Kubuś to Miś kosmita, wysłannik obcej cywilizacji, którego zadaniem było przekazanie ludziom tajemnicy implikacji. W mniemaniu Kubusia zadanie zostało wykonane, ale wcale nie jest pewne czy ludzie to załapią … cóż, będzie co ma być, niebo albo piekło.
W pracach nad teorią implikacji bezcennej pomocy udzielili Kubusiowi przyjaciele:
Emde (sfinia), Fizyk (ateista.pl), Irbisol (sfinia), Macjan (sfinia), Miki (sfinia), NoBody (ateista.pl), Rafał3006 (sfinia), Rogal (matematyka.pl), Uczy (wolny), Volrath (sfinia), WujZbój (sfinia)
Wielkie dzięki !
Szczególne podziękowania Wujowi Zbójowi za jego nieskończoną cierpliwość w dyskusjach z Kubusiem oraz Vorathowi za decydującą o wszystkim dyskusję
… wszystko, co chcecie, żeby ludzie wam czynili, wy też im podobnie czyńcie …
Ewangelia Mateusza 7:12
To jest podręcznik, przy pomocy którego chciałbym poznać fundamenty logiki człowieka, gdybym miał znowu 16 lat
Kubuś
Spis treści:
1.0 Notacja
1.1 Fundament logiki klasycznej w pigułce
1.1.1 Funkcja logiczna
1.1.2 Definicja logiki ujemnej
1.1.3 Definicja implikacji prostej
1.1.4 Definicja implikacji odwrotnej
1.1.5 Spójniki zdaniowe
1.2 Najważniejsze prawa algebry Boole’a
1.2.1 Operatory AND i OR
1.3 Implikacja
1.3.1 Prawa Kubusia
1.4 Równoważność
1.4.1 Prawo kontrapozycji
1.5 Prawo Sowy
1.6 Prawa kontrapozycji w implikacji
1.7 Algebra Kubusia
1.8 Definicja algebry Kubusia
Część I Operatory AND i OR
2.0 Kubuś na tropie logiki człowieka
2.1 Podstawowe pojęcia i definicje
2.2 Funkcja logiczna jednej zmiennej
2.3 Funkcja logiczna dwu zmiennych - suma logiczna
2.4 Funkcja logiczna dwu zmiennych - iloczyn logiczny
2.5 Logika ujemna
2.6 Definicja sumy logicznej
2.7 Prawo Prosiaczka
2.8 Definicja iloczynu logicznego
2.9 Dowody zero-jedynkowe w algebrze Boole’a
2.10 Logika dodatnia i ujemna w bramkach logicznych
2.11 Operatory OR i AND w logice człowieka
3.0 Zero-jedynkowa algebra Boole’a
3.1 Prawa wynikające z definicji iloczynu logicznego
3.2 Prawa wynikające z definicji sumy logicznej
3.3 Najważniejsze prawa algebry Boole’a
3.4 Operatory dodatnie i operatory ujemne
Część II Implikacja
4.0 Prawda o implikacji
4.1 Aktualny stan matematyki w zakresie implikacji
4.2 Poprawne definicje implikacji
4.3 Najbardziej sensacyjny dowód w historii logiki
4.3.1 Implikacja w matematyce
4.3.2 Implikacja w świecie martwym
4.3.3 Implikacja w świecie żywym
4.4 Lekcja symbolicznej algebry Boole’a, twierdzenie Misia
5.0 Od tabel zero-jedynkowych do definicji operatorowych
5.1 Symboliczna i operatorowa definicja implikacji prostej
5.2 Symboliczna i operatorowa definicja implikacji odwrotnej
6.0 Kubuś na tropie implikacji odwrotnej
6.1 Operatorowa definicja implikacji odwrotnej
6.2 Zero-jedynkowa definicja implikacji odwrotnej
6.3 Gwarancja matematyczna w implikacji odwrotnej
7.0 Kubuś na tropie implikacji prostej
7.1 Operatorowa definicja implikacji prostej
7.2 Zero-jedynkowa definicja implikacji prostej
7.3 Gwarancja w implikacji prostej
8.0 Fundamenty algebry Boole’a
8.1 Iloczyn kartezjański i pojęcie funkcji
8.2 Funkcja iloczynu algebraicznego
8.3 Funkcja iloczynu logicznego AND(*)
8.4 Algebra Boole’a i prawo przemienności
8.5 Prawa Kubusia
8.6 Prawo Kłapouchego
8.7 Implikacja w bramkach logicznych, twierdzenie Hipcia
8.8 Kwadrat logiczny implikacji
8.9 Równoważność
8.10 Kwadrat logiczny równoważności
9.0 Kodowanie zdań ze spójnikiem „Jeśli…to…”
9.1 Prawo Tygryska
10.0 Tablica Mendelejewa logiki
10.1 Równoważność
10.2 Implikacja prosta
10.3 Implikacja odwrotna
10.4 Operatorowa definicja implikacji prostej w praktyce
10.4.1 Gwarancja w implikacji prostej
10.5 Operatorowa definicja implikacji odwrotnej w praktyce
10.5.1 Gwarancja w implikacji odwrotnej
10.6 Porównanie gwarancji w implikacji prostej i odwrotnej
10.7 Operatorowa definicja równoważności w praktyce
11.0 Obietnice i groźby
11.1 Obietnice
11.2 Groźby
11.3 Znaczenie operatora implikacji odwrotnej ~>
11.4 „Równoważność” w obietnicach i groźbach
11.5 Geneza klęski dzisiejszej logiki w obszarze implikacji
12.0 Podsumowanie
12.1 Geneza zero-jedynkowych tabel operatorów logicznych
Wstęp.
Algebra Kubusia to symboliczna algebra Boole’a, odpowiednik języka asemblera ze świata mikroprocesorów, z nowymi definicjami implikacji prostej => i odwrotnej ~>, fundamentalnie różnymi od wszelkich znanych człowiekowi delicji implikacji np. materialna, logiczna, ścisła etc. Oczywiście chodzi tu o nową interpretację tabel zero-jedynkowych, znanych ludziom od 200 lat.
Kubuś to przybysz ze świata techniki dobrze znający techniczną algebrę Boole’a której fundamentem są operatory AND(*) i OR(+). Zaskoczył go fakt, że dzisiejsza logika (KRZ) to rachunek zero-jedynkowy, że cała współczesna algebra Boole’a to mielenie bezsensownych zer i jedynek. W technicznej algebrze Boole’a myślimy naturalną logiką człowieka zapisując symbolicznie to co chcemy uzyskać. Na tym najważniejszym etapie projektowania (poziom algorytmu) zera i jedynki kompletnie nas nie interesują, wszystko zapisujemy w symbolicznych równaniach algebry Boole’a.
Człowiek poszukuje matematycznej wersji implikacji którą posługuje się w naturalnym języku mówionym od 2500 lat, jak do tej pory bezskutecznie. Po trzech latach walki z implikacją Kubuś i przyjaciele wreszcie to wszystko rozszyfrowali.
Łatwo sformułować warunki które musi spełniać poprawna matematycznie teoria języka mówionego.
1.
Teoria musi być niezależna od jakiegokolwiek języka świata
2.
Teoria musi być matematycznie jednoznaczna
3.
Teoria musi opisywać naturalny język mówiony, którym posługują się dzieci w przedszkolu
Symboliczna algebra Kubusia bez problemu spełnia wszystkie trzy warunki. Algebra Kubusia to algebra Boole’a z dołączonymi do definicji poprawnymi definicjami implikacji prostej => i odwrotnej ~>.
Nowe, nieznane człowiekowi definicje implikacji prostej => i odwrotnej ~> (oczywiście chodzi tu o interpretacje tabel zero-jedynkowych) plus prawa Kubusia działają doskonale w matematyce, przyrodzie martwej i żywej, groźbach i obietnicach oraz opisują takie pojęcia jak „wolna wola” czy „dobro-zło”. Najśmieszniejszy w całej tej historii jest fakt, że człowiek nie musi się uczyć matematycznej wersji swojej logiki, po prostu ma ją wyssaną z mlekiem matki, wystarczy że będzie logicznie myślał i zapisywał swoje myśli w postaci równań algebry Kubusia w przełożeniu 1/1.
KRZ - Klasyczny Rachunek Zdań, dział logiki, w zakresie implikacji oparty na definicji implikacji materialnej. Fundamentem KRZ jest rachunek zero-jedynkowy.
Uwaga:
W tej publikacji używając terminu „dzisiejsza logika” będziemy mieli na myśli KRZ
1.0 Notacja
Notacja w algebrze Kubusia jest identyczna jak notacja technicznej algebry Boole’a czyli tej, której używają praktycy.
Symboliczna algebra Kubusia:
Y - prawda, dotrzymam słowa
~Y - fałsz, kłamstwo
Rachunek zero-jedynkowy:
1 = prawda
0 = fałsz
Twarda prawda/fałsz - zachodzi zawsze, bez żadnych wyjątków (warunek wystarczający =>)
Miękka prawda/fałsz - może zajść, ale nie musi (warunek konieczny ~>)
# - różne
* - symbol iloczynu logicznego (AND), w mowie potocznej spójnik 'i'
+ - symbol sumy logicznej (OR), w mowie potocznej spójnik "lub"
~ - przeczenie, negacja (NOT), w mowie potocznej "NIE"
~(...) - w mowie potocznej "nie może się zdarzyć że ...", "nie prawdą jest że ..."
<=> - symbol równoważności
W tym miejscu początkujący czytelnicy proszeni są o przeskok do punkt 2.0 gdzie rozpoczyna się elementarz algebry Boole’a od zupełnego zera. Rozdział 1.0 to streszczenie całego podręcznika w pigułce, oczywiście można na to zerknąć, ale z pewnością będą to dla początkującego czytelnika nic nie mówiące krzaczki.
1.1 Fundament logiki klasycznej w pigułce
Logika klasyczna zbudowana na zaprezentowanym tu fundamencie to 100%, poprawna algebra Boole’a. Niemożliwe są tu jakiekolwiek paradoksy znane w starej logice klasycznej.
Algebra Boole’a to algebra bramek logicznych która ma zero wspólnego z matematyką klasyczną np. całki, ekstrema funkcji itp. Prawa tu obowiązujące nie muszą pokrywać się z aksjomatami wyznaczonymi dla matematyki klasycznej,
Algebra Kubusia to symboliczna algebra Boole’a której fundamentem w obszarze implikacji są nieznane ludziom, definicje implikacji prostej => i odwrotnej ~>. Oczywiście chodzi tu o interpretacje odpowiednich tabel zero-jedynkowych, znanych od prawie 200 lat.
1.1.1 Funkcja logiczna
Definicja:
Funkcja logiczna Y to funkcja n-zmiennych binarnych połączonych operatorami AND(*) lub OR(+):
Y = A+(B*C) ….
1.1.2 Definicja logiki ujemnej
Definicja:
Logika dodatnia (Y) to odpowiedź na pytanie kiedy dotrzymam słowa (wystąpi prawda), zaś logika ujemna (~Y) to odpowiedź na pytanie kiedy skłamię (wystąpi fałsz).
Związek logiki dodatniej z logika ujemną opisuje równanie:
Y = ~(~Y) - prawo podwójnego przeczenia
1.1.3 Definicja implikacji prostej
Implikacja prosta - przemienność argumentów nie występuje
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” => zajść q
p musi być warunkiem wystarczającym dla q
=> - operator implikacji prostej, spójnik „musi” ze spełnionym warunkiem wystarczającym
Operatorowa definicja implikacji prostej:
Kod: |
Tabela A
p q p=>q
A: p=> q = 1
B: p=>~q = 0
C:~p~>~q = 1
D:~p~~>q = 1
|
Prawo Kubusia:
p=>q = ~p~>~q
gdzie:
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Zdanie D nie może być implikacją prostą, ponieważ prawo Kubusia zostałoby zgwałcone.
Dowód nie wprost.
Załóżmy, że D jest implikacja prostą, obowiązuje wówczas prawo Kubusia.
D: ~p~>q = B: p=>~q =0
Zdanie B jest fałszem na mocy definicji implikacji prostej, zatem D nie może być implikacją odwrotną.
CND
Prawdziwość zdania D określa wzór:
(~p~>q) + (~p~~>q) = 0 +1 =1
Zdanie D jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy jedna prawda.
Z powyższej definicji po podstawieniu:
p=1, ~p=0
q=1, ~q=1
Otrzymujemy zero-jedynkową definicję implikacji prostej:
Kod: |
Tabela C
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
1.1.4 Definicja implikacji odwrotnej
Implikacja odwrotna - przemienność argumentów nie występuje
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Operatorowa definicja implikacji odwrotnej:
Kod: |
Tabela A
p q p~>q
A: p ~> q = 1
B: p~~>~q = 1
C:~p=> ~q = 1
D:~p => q = 0
|
Prawo Kubusia:
p~>q = ~p=>~q
gdzie:
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
Zdanie B nie może być implikacją odwrotną, gdyż zgwałcone zostałoby prawo Kubusia.
Dowód nie wprost.
Załóżmy, że B jest implikacją odwrotną.
Prawo Kubusia:
B: p~>~q = D:~p=>q =0
Zdanie D jest twardym fałszem, zatem B nie może być implikacją odwrotną
CND
Prawdziwość zdania B określa wzór:
(p~>~q) + (p~~>~q) = 0+1=1
Zdanie B jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy jedna prawda.
Z powyższej definicji po podstawieniu:
p=1, ~p=0
q=1, ~q=1
Otrzymujemy zero-jedynkową definicję implikacji odwrotnej:
Kod: |
Tabela B
p q p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
1.1.5 Spójniki zdaniowe
Spójniki zdaniowe:
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
1.2 Najważniejsze prawa algebry Boole’a
Zaprezentowane tu prawa to fundament logiki człowieka:
Logika człowieka = poprawna algebra Boole’a
1.2.1 Operatory AND i OR
Operatory AND i OR - przemienność argumentów zachodzi
OR(+)
Y=p+q
~Y=~p*~q
Y=~(~Y)
stąd:
p+q = ~(~p*~q) - prawo de’Morgana
AND(*)
Y=p*q
~Y=~p+~q
Y=~(~Y)
stąd:
p*q = ~(~p+~q) - prawo de’Morgana
Prawo przejścia do logiki przeciwnej:
Negujemy argumenty i wymieniamy operatory.
1.3 Implikacja
Implikacja - przemienności argumentów nie zachodzi
1.3.1 Prawa Kubusia
Prawa Kubusia:
p=>q = ~p~>~q - zamiana operatora => na ~>
p~>q = ~p=>~q - zamiana operatora ~> na =>
Prawa Kubusia zostały udowodnione przez:
Kubuś - zero-jedynkowo
Wuj Zbój - równania algebry Boole’a
Zbanowany Uczy - metodą nie wprost
Prawa Kobusia to ścisły odpowiednik praw de’Morgana z operatorów AND i OR. W mowie potocznej każdy człowiek korzysta z nich milion razy na dobę, to fundament matematyczny naturalnego języka mówionego
Dowód:
p=>q = ~p+q - definicja implikacji prostej
p~>q = p+~q - definicja implikacji odwrotnej
~p~>~q = (~p)+~(~q) = ~p+q = p=>q
~p=>~q = ~(~p)+(~q) = p+~q = p~>q
Doskonale widać zachodzące tożsamości w poziomie nie zachodzące ani w pionach, ani po przekątnych.
Prawo przejścia do logiki przeciwnej:
Negujemy argumenty i wymieniamy operator na przeciwny
Uwaga:
Zachodzące prawa Kubusia są dowodem implikacji.
1.4 Równoważność
Równoważność - przemienność argumentów zachodzi
Definicja równoważności:
p<=>q = p*q+~p*~q
p zajdzie wtedy i tylko wtedy gdy zajdzie q
Operatorowa definicja równoważności:
Kod: |
p=> q =1
p=>~q =0
~p=>~q =1
~p=> q =0
|
Po podstawieniu:
p=1, ~p=0
q=1, ~q=0
Otrzymujemy zero-jedynkową definicję równoważności:
Kod: |
p q p<=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =0
|
Bezpośrednio z tabeli zero-jedynkowej otrzymujemy definicje równoważności w operatorach AND(*) i OR(*).
p<=>q = p*q+~p*~q
Podstawowa definicja operatorowa równoważności, wynikająca z powyższej definicji operatorowej (także z zero-jedynkowej):
A.
p<=>q = (p=>q)*(~p=>~q) = 1*1 =1
gdzie:
p=>q, ~p=>~q, q=>p - zachodzące warunki wystarczające, nie są to implikacje
Dowód nie wprost:
Załóżmy, że p=>q jest definicją implikacji prostej.
Obowiązuje wówczas prawo Kubusia:
p=>q = ~p~>~q
czyli w trzeciej linii otrzymaliśmy sprzeczność:
~p=>~q # ~p~>~q
Zatem w zapisach p=>q i ~p=>~q mamy do czynienia wyłącznie z warunkami wystarczającymi, nie mogą to być implikacje.
CND
W matematyce wykorzystywana jest definicja równoważności:
p<=>q = (p=>q)*(q=>p)
będąca odpryskiem definicji podstawowej jak wyżej.
Dowód:
p=>q = ~p+q - definicja implikacji prostej
W równoważności zachodzi przemienność argumentów zatem:
~p=>~q = ~(~p)+(~q) = p+~q = ~q+p = q=>p
Po podstawieniu do A mamy:
p<=>q = (p=>q)*(q=>p)
W twierdzeniach matematycznych często łatwiejsza jest definicja:
p<=>q = (p=>q)*(~p=>~q)
Oczywiście, udowodnienie równoważności z wykorzystaniem powyższej definicji, jest dowodem zachodzącego warunku wystarczającego w stronę q=>p czyli pewne jest że:
p<=>q = (p=>q)*(q=>p)
1.4.1 Prawo kontrapozycji
Prawo kontrapozycji:
p=>q = ~q=>~p
Dowód:
p=>q = ~p+q - definicja implikacji prostej
W równoważności zachodzi przemienność argumentów zatem:
~q=>~p = ~(~q)+(~p) = q+~p = ~p+q = p=>q
bo:
~(~q)=q
1.5 Prawo Sowy
Prawo Sowy
W algebrze Boole’a jeśli coś jest implikacją (jakąkolwiek) to nie może być równoważnością
W algebrze Boole’a jeśli coś jest równoważnością to nie może być implikacją (jakąkolwiek)
Prawo Sowy wynika bezpośrednio z definicji równoważności czyli z występujących w tej definicji warunków wystarczających p=>q, ~p=>~q, q=>p - to nie są implikacje !
Implikacja i równoważność to dwa oddzielne światy matematyczne pomiędzy którymi nie zachodzą żadne związki matematyczne.
1.6 Prawa kontrapozycji w implikacji
W implikacji zabroniona jest zamiana argumentów, natomiast prawo kontrapozycji wymusza zamianę argumentów, dlatego prawo kontrapozycji jest w implikacji fałszywe.
Definicja zero-jedynkowa implikacji prostej:
Kod: |
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Jeśli przemienność argumentów ma zachodzić to w ostatniej linii musimy wymusić zero. Zróbmy to !
Kod: |
p q p<=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =0
|
Oczywiście wylądowaliśmy w bezdyskusyjnej równoważności gdzie prawa kontrapozycji są oczywiście poprawne.
Prawo Hipcia:
Prawa Kubusia są poprawne w implikacji i fałszywe w równoważności
Prawa kontrapozycji są poprawne w równoważności i fałszywe w implikacji
Bezdyskusyjny dowód pkt. 8.7
Mit, jakoby prawo kontrapozycji było prawdziwe w implikacji można więc między bajki włożyć.
1.7 Algebra Kubusia
Algebra Kubusia to symboliczna algebra Boole’a której fundamentem w obszarze implikacji są nieznane ludziom, definicje implikacji prostej => i odwrotnej ~>. Oczywiście chodzi tu o interpretacje odpowiednich tabel zero-jedynkowych, znanych ludziom od prawie 200 lat.
Iloczyn kartezjański i pojęcie funkcji (pkt. 6.1) to fundament matematyczny algebry Boole’a. Bezpośrednio z tych pojęć wynika przemienność argumentów w operatorach AND(*), OR(+), równoważności <=> i XOR oraz brak przemienności argumentów w operatorach implikacji prostej => i implikacji odwrotnej ~>.
Brak przemienności argumentów w operatorach implikacji przenosi się oczywiście na brak przemienności w implikacyjnych AND(*) i OR(+) wynikających z definicji tych operatorów czyli:
p=>q = ~p+q # q+~p = q~>p
p~>q = p+~q # ~q+p = q=>p
czyli:
p=>q # q~>p
p~>q # q=>p
To jest fundamentalna różnica wymuszająca włączenie operatorów implikacji do poprawnej definicji algebry Boole’a. Oczywiście algebrę Boole’a uzupełnioną w definicji o operatory implikacji prostej => i implikacji odwrotnej ~> mamy prawo nazwać, niech to będzie algebra Kubusia.
W algebrze Kubusia operator implikacji odwrotnej ~> ma równe prawa z implikacją prostą => i jest niezbędny, bowiem implikacja w naturalnym języku mówionym to zmiana operatora z => na ~> lub odwrotnie milion razy na dobę.
Zauważmy coś fundamentalnie ważnego:
W operatorach AND(*) i OR(+) można się obejść bez jednego z tych operatorów na podstawie praw de’Morgana:
p+q = ~(~p*~q) - prawo zamiany operatora OR(+) na AND(*)
p*q = ~(~p+~q) - prawo zamiany operatora AND(*) na OR(+)
Wydawać by się mogło, że na tej samej zasadzie zbędna jest implikacja odwrotna ~>, bo prawa Kubusia:
p=>q = ~p~>~q - prawo zamiany implikacji prostej => na implikację odwrotną ~>
p~>q = ~p=>~q - prawo zamiany implikacji odwrotnej ~> na implikacje prostą =>
Nic bardziej błędnego !
Prawa Kubusia działają bowiem w obrębie jednej i tej samej definicji zero-jedynkowej. Niemożliwe jest zatem istnienie implikacji prostej => (pewne wynikanie) bez implikacji odwrotnej ~> (rzucanie monetą) i odwrotnie - patrz prawo Kłapouchego pkt. 6.6.
1.8 Definicja algebry Kubusia
Definicja algebry Kubusia:
Dwuelementowa algebra Kubusia (wyłącznie cyfry 0 i 1) to algebra legalnych operatorów logicznych z których najważniejsze to OR(+), AND(*), implikacja prosta =>, implikacja odwrotna ~> plus definicja negacji (~) oraz pojęcie zmiennej binarnej i funkcji logicznej.
Definicja negacji:
1=~0
0=~1
Zmienna binarna - zmienna przyjmująca w osi czasu wyłącznie wartości 0 albo 1
Funkcja logiczna (Y) - to funkcja zmiennych binarnych połączonych operatorami logicznymi AND(*) lub OR(+) przyjmująca w osi czasu wartości wyłącznie 0 albo 1 w zależności od aktualnych wartości tych zmiennych.
Przykładowa funkcja logiczna:
Y=A+(B*~C)
gdzie:
Y - funkcja logiczna (typowe oznaczenie rodem z teorii układów logicznych)
A,B,C … - zmienne binarne
Wszelkie prawa logiczne tylko i wyłącznie z powyższej definicji wynikają.
Lista legalnych operatorów logicznych w postaci zero-jedynkowej:
Kod: |
p q OR NOR AND NAND <=> XOR => N(=>) ~> N(~>) FILL NOP P NP Q NQ
0 0 0 1 0 1 1 0 1 0 1 0 1 0 0 1 0 1
0 1 1 0 0 1 0 1 1 0 0 1 1 0 0 1 1 0
1 0 1 0 0 1 0 1 0 1 1 0 1 0 1 0 0 1
1 1 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0
|
Kod: |
Logika dodatnia Logika ujemna
OR NOR
AND NAND
<=> XOR
=> N(=>)
~> N(~>)
FILL NOP
P NP
Q NQ
|
Wszystkich możliwych operatorów logicznych jest 16 z czego człowiek zna poprawne znaczenie zaledwie sześciu: AND, NAND, OR, NOR, <=>, XOR. Za operatory dodatnie przyjęto te, które człowiek używa w naturalnym języku mówionym. Wyjątkiem jest tu operator XOR, w języku mówionym spójnik „albo”.
Operator ujemny to zanegowany operator dodatni, co doskonale widać w powyższej tabeli.
Operator dodatni to zanegowany operator ujemny, co również widać wyżej.
Kod: |
Definicje operatorów ujemnych:
pNORq = ~(p+q)
pNANDq = ~(p*q)
pXORq = ~(p<=>q)
pN(=>)q = ~(p=>q)
pN(~>)q = ~(p~>q)
pNOPq = ~(pFILLq)
pNPq = ~(pPq)
pNQq = ~(pQq)
|
W języku mówionym operatory ujemne nie są używane, ponieważ łatwo je zastąpić operatorami dodatnimi plus negacją co widać w powyższej tabeli.
Część I Operatory AND i OR
2.0 Kubuś na tropie logiki człowieka
Pewnego razu Kubuś, leżąc na polance w stumilowym lesie doznał olśnienia. A gdyby tak wyzerować sobie mózg, czyli założyć że moja matematyczna wiedza wstępna jest na poziomie ucznia I klasy LO który nie ma pojęcia o algebrze Boole’a i napisać podręcznik logiki dla samego siebie ?
Hmm… to całkiem niezły pomysł, pomyślał Kubuś.
Fundamentem dzisiejszej logiki (KRZ) jest rachunek zero-jedynkowy, będący przyczyną jej klęski w poszukiwaniu logiki człowieka. Po prostu praktycznie nie da się dojść od zer i jedynek do poziomu naturalnej logiki człowieka. Do problemu trzeba podejść dokładnie z drugiej strony, czyli myśleć logicznie jak dziecko w przedszkolu zapisując swoje myślenie w postaci równań algebry Boole’a.
2.1 Podstawowe pojęcia i definicje
Pewne jest, że algebrą Kubusia doskonale posługują się wszystkie dzieci w przedszkolu. Zacznijmy zatem myśleć logicznie jak 5-letnie dziecko i przelewajmy wszystko na papier. Oczywiście aby to robić musimy znać fundamentalne pojęcia i definicje z zakresu logiki. Aparatu matematycznego nie potrzebujemy w ogóle gdyż mamy go w głowie - to nasz mózg.
+ - suma logiczna, spójnik „lub” (OR) w naturalnym języku mówionym
* - iloczyn logiczny, spójnik „i” (AND) w naturalnym języku mówionym
~ - przeczenie „NIE”
K - kino
~K - nie kino
T - teatr
~T - nie teatr
Y - prawda, dotrzymam słowa
~Y - fałsz, kłamstwo
~(…) - nieprawda że …, nie może się zdarzyć że …
Znaczenie symboli w logice:
K, T - zmienne binarne, mogące przyjmować w osi czasu wyłącznie wartości 0 albo 1
Y - funkcja logiczna zmiennych binarnych np.
Y = K+T
Y = Kino lub (+) Teatr
Definicja zmiennej binarnej:
Zmienna binarna to zmienna mogąca przyjmować w osi czasu wyłącznie wartości 0 albo 1
Definicja funkcji logicznej:
Funkcja logiczna to funkcja zmiennych binarnych połączonych operatorami OR(+) lub AND(*) przyjmująca w osi czasu wyłącznie wartości 0 albo 1
Prawo podwójnego przeczenia:
Y=~(~Y)
prawda = nieprawda, że nieprawda
Dowód na przykładzie:
U= jestem uczciwy
~U = jestem nieuczciwy
U=~(~U)
Nieprawdą jest, że jestem nieuczciwy
czyli:
Jestem uczciwy = Nieprawdą jest że jestem nieuczciwy
W dzisiejszej logice (KRZ), której fundamentem jest rachunek zero-jedynkowy, zwyczajowo przyjmuje się logikę dodatnią gdzie:
1 = prawda, dotrzymam słowa
0 = fałsz, skłamię
… i niech tak zostanie, choć oczywiście możliwy jest standard przeciwny, czyli logika ujemna w stosunku do przyjętego standardu.
Poprawna logika nie powinna zależeć od przyjętego standardu jak wyżej. Każdy człowiek, od przedszkolaka po profesora doskonale posługuje się algebrą Kubusia na poziomie symbolicznym. Absolutnie nikt nie myśli logicznie przy pomocy zer i jedynek poza dinozaurami logiki, fanatykami rachunku zero-jedynkowego.
Identycznie jest w technice mikroprocesorowej. Człowiek myślał tu w kodzie maszynowym czyli zerach i jedynkach zaledwie przez mgnienie oka. Natychmiast wymyślił symboliczny język asemblera mający bezpośrednie przełożenie na kod maszynowy programu … czyli skopiował działanie własnego mózgu.
Z punktu odniesienia mikroprocesora mamy świat w 100% binarny czyli mikroprocesor zna wyłącznie zera i jedynki. Z punktu odniesienia człowieka mamy zupełnie inną rzeczywistość. Wszyscy wiemy, że komputery potrafią liczyć, rysować, malować, sterować fabryką bez ludzi itd.
Jak zatem działa program napisany przez człowieka w symbolicznym języku asemblera skoro mikroprocesory znają wyłącznie dwie cyferki 0 i 1 ?
Oczywiście konieczny jest tu translator języka symbolicznego na kod maszynowy programu czyli na zera i jedynki. Translator to również napisany przez człowieka program komputerowy, nic więcej.
Fundamentalnym językiem symbolicznym każdego mikroprocesora jest język asemblera, to fundament wszelkich innych języków wysokiego poziomu. Język asemblera jest jeden (to algebra Boole’a), natomiast języków wysokiego poziomu może być nieskończenie wiele.
Zacznijmy teraz myśleć logicznie jak 5-cio letnie dziecko zapisując wszystko w równaniach algebry Boole’a.
2.2 Funkcja logiczna jednej zmiennej
Jutro idę do kina
Y=K
Matematycznie oznacza to:
Dotrzymam słowa (Y) jeśli jutro pójdę do kina (K)
Y=K
Kiedy zostanę kłamcą ?
Skłamię (~Y), jeśli jutro nie pójdę do kina
~Y = ~K
Zauważmy, że po prostu zanegowaliśmy dwustronnie równanie Y=K
Inne zdanie:
Jutro nie pójdę do kina
Y=~K
czyli matematycznie:
Dotrzyma słowa (Y), jeśli jutro nie pójdę do kina
Y=~K
Kiedy skłamię ?
Skłamię (~Y), jeśli jutro pójdę do kina
~Y=~(~K)=K
Zastosowaliśmy tu prawo podwójnego przeczenia K=~(~K)
2.3 Funkcja logiczna dwu zmiennych - suma logiczna
Jutro pójdę do kina lub do teatru
Y=K+T
czyli matematycznie:
Dotrzymam słowa (Y), jeśli jutro pójdę do kina lub do teatru
Y=K+T
… a kiedy skłamię ?
Skłamię (~Y) jeśli jutro nie pójdę do kina i nie pójdę do teatru
~Y = ~K*~T
Oczywiście zatrudniliśmy tu aparat matematyczny wbudowany w mózg każdego człowieka.
… czy może się zdarzyć, że jutro nie pójdę do kina i nie pójdę do teatru ?
Negujemy powyższe równanie dwustronnie i mamy odpowiedź:
Nie może się zdarzyć, że jutro nie pójdę do kina i nie pójdę do teatru
Y=~(~K*~T)
Ostatnie zdanie wynika też z prawa de’Morgana dla sumy logicznej.
A: Y=K+T
B: ~Y=~K*~T
C: Y=~(~Y) - prawo podwójnego przeczenia
Stąd po podstawieniu A i B do C mamy prawo de’Morgana:
K+T = ~(~K*~T) - prawo zamiany operatora OR(+) na AND(*)
Czyli zdanie równoważne do Y będzie brzmiało:
Nie może się zdarzyć ~(…), że jutro nie pójdę do kina i nie pójdę do teatru
~(~K*~T) = K+T
Ostatnie zdanie używane jest niezwykle rzadko. Nasz mózg optymalizuje odpowiedzi, czyli jeśli to samo można wyrazić prościej to preferuje tą odpowiedź (tu K+T)
2.4 Funkcja logiczna dwu zmiennych - iloczyn logiczny
Jutro pójdę do kina i do teatru
Y=K*T
czyli matematycznie:
Dotrzymam słowa (Y) jeśli jutro pójdę do kina i do teatru
… a kiedy skłamię ?
Skłamię (~Y), jeśli jutro nie pójdę do kina lub nie pójdę do teatru
~Y = ~K+~T
… a czy może się zdarzyć, że jutro nie pójdę do kina lub nie pójdę do teatru ?
Negujemy powyższe równanie dwustronnie i mamy odpowiedź:
Nie może się zdarzyć ~(…), że jutro nie pójdę do kina lub nie pójdę do teatru.
Y=~(~K+~T)
Oczywiście ostatnie zdanie wynika też z prawa de’Morgana dla sumy logicznej.
Mamy wyżej:
A: Y=K*T
B: ~Y=~K+~T
Prawo podwójnego przeczenia:
C: Y=~(~Y)
Podstawiając A i B do C mamy prawo de’Morgana:
K*T = ~(~K+~T) - prawo zamiany operatora AND(*) na OR(+)
2.5 Logika ujemna
Popatrzmy jeszcze raz na matematykę, którą posługuje się każdy przedszkolak.
Jutro pójdę do kina lub do teatru
Y=K+T
Matematycznie:
Dotrzymam słowa (Y) jeśli jutro pójdę do kina lub do teatru.
Y=K+T
… a kiedy skłamię ?
Skłamię (~Y) jeśli jutro nie pójdę do kina i nie pójdę do teatru
~Y = ~K*~T
Koniec !
To jest cała matematyka, którą każdy człowiek od przedszkolaka po profesora używa milion razy na dobę. Jak widać mózg przedszkolaka na pytanie „Kiedy skłamię ?” odpowiada w logice ujemnej.
Definicja logiki ujemnej:
Logika dodatnia (Y) to odpowiedź na pytanie kiedy dotrzymam słowa (wystąpi prawda), zaś logika ujemna (~Y) to odpowiedź na pytanie kiedy skłamię (wystąpi fałsz).
Związek logiki dodatniej z logika ujemną opisuje równanie:
Y = ~(~Y) - prawo podwójnego przeczenia
Nietrudno zauważyć, jak mózg dziecka przechodzi z logiki dodatniej (Y) do logiki ujemnej (~Y), po prostu neguje wszystkie zmienne i wymienia operator na przeciwny. Nietrudno też się domyśleć, że to jest poprawny sposób przejścia do logiki ujemnej dla dowolnie długiej funkcji logicznej.
Metoda przedszkolaka:
Przejście z logiki dodatniej (Y)do ujemnej (~Y) lub odwrotnie uzyskujemy negując wszystkie zmienne i wymieniając operatory na przeciwne.
Przykład:
A: Y=A+(~B*C)
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne:
B: ~Y = ~A*(B+~C)
Oczywiście zachodzi:
C: Y=~(~Y) - prawo podwójnego przeczenia
Podstawiając A i B do C mamy prawo de’Morgana.
A+(~B*C) = ~[~A*(B+~C)]
Łatwo zauważyć, że z prawa de’Morgana mózg dziecka praktycznie nigdy nie korzysta … no, chyba że w fazie poznawania języka, kiedy to dwulatek zadaje wszelkie możliwe pytania.
Popatrzmy na to jeszcze raz, delektując się genialną matematyką która posługuje się każde dziecko.
Jutro pójdę do kina lub do teatru
Y=K+T
Matematycznie:
Dotrzymam słowa (Y) jeśli jutro pójdę do kina lub do teatru.
Y=K+T
… a kiedy skłamię ?
Skłamię (~Y) jeśli jutro nie pójdę do kina i nie pójdę do teatru
~Y = ~K*~T
Już dziecko pięcioletnie nie będzie zadawało więcej pytań bo wszystko jest jasne, dwulatek może jednak kontynuować.
… a czy może się zdarzyć, że jutro nie pójdę do kina i nie pójdę do teatru ?
Ostatnie zdanie w dialogu:
~Y=~K*~T
Negujemy dwustronnie i mamy odpowiedź na temat, czyli zgodną z zadanym pytaniem.
Y=~(~K*~T)
Nie może się zdarzyć ~(…), że jutro nie pójdę do kina i nie pójdę do teatru
Na powyższe pytanie można odpowiedzieć inaczej:
Jutro na pewno pójdę do kina lub do teatru
Y=K+T
Jednak nie będzie to ścisła odpowiedź na zadane pytanie, dlatego mało kto tak odpowie.
2.6 Definicja sumy logicznej
Powyżej użyliśmy niezawodnego aparatu matematycznego, mózgu 5-cio latka, do rozszyfrowania operatorów OR(+) i AND(*). Oczywiście w matematyce nie operujemy na przykładach, lecz na zapisach formalnych. Powszechnie przyjętym zwyczajem jest, że zmienne formalne w algebrze Boole’a oznaczamy literkami p i q. Dla konkretnego przypadku pod zmienne formalne p i q podstawiamy zmienne aktualne.
Y=p+q - formalny zapis sumy logicznej
Jutro pójdę do kina lub do teatru.
Y=K+T - aktualny zapis sumy logicznej
Definicja sumy logicznej:
Suma logiczna n-zmiennych binarnych jest równa zeru wtedy i tylko wtedy gdy wszystkie składniki sumy są równe zeru
Y = A1+A2+… An =0 <=> A1=0, A2=0 …An=0
Definicja równoważna:
Suma logiczna n-zmiennych binarnych jest równa jeden gdy którakolwiek ze zmiennych jest równa jeden.
Zajrzyjmy ponownie do przedszkola ….
Pani do dzieci w przedszkolu:
Słuchajcie dzieci, obiecuję wam że jutro pójdziemy do kina lub do teatru
Y=K+T
Które z was powie mi kiedy dotrzymam słowa ?
Odpowiedzi 5-cio letniego Jasia zapiszemy w formie tabeli:
K*T = Y - dotrzymam słowa (Y) jeśli pójdziemy do kina i do teatru
K*~T =Y - dotrzymam słowa (Y) jeśli pójdziemy do kina i nie pójdziemy do teatru
~K*T =Y - dotrzymam słowa (Y) jeśli nie pójdziemy do kina i pójdziemy do teatru
Oczywiście wyłącznie jeden z powyższych przypadków może jutro wystąpić, czyli używamy definicji sumy logicznej aby z powyższego wygenerować równanie algebry Boole’a.
Y=K*T + K*~T + ~K*T
Pani dotrzyma słowa wtedy i tylko wtedy gdy wystąpi którykolwiek z powyższych przypadków.
Bardzo dobrze Jasiu, a teraz które z was powie kiedy skłamię ?
Zuzia:
Pani skłamie (~Y) jeśli jutro nie pójdziemy do kina i nie pójdziemy do teatru
~K*~T =~Y
Zauważmy, że wyżej mamy zapisane wszystkie przypadki dla zmiennych K i T jakie w przyszłości mogą wystąpić. Możemy to nazwać „matrycą przyszłości”, nic poza tą matrycą nie ma prawa się wydarzyć.
Zapiszmy to wszystko razem w formie tabeli:
Kod: |
K T = Y
K ~T = Y
~K T = Y
~K ~T =~Y
|
Oczywiście w matematyce nie operujemy na przykładach, lecz na zapisach formalnych.
Przyjmijmy zatem:
p=K i q=T
i przepiszmy powyższą tabelkę.
Kod: |
p q = Y=p+q
p q = Y
p ~q = Y
~p q = Y
~p ~q =~Y
|
Zauważmy, że do tej pory analizujemy sobie poczynania mózgu 5-cio latka w postaci symbolicznej. Nadszedł czas, aby z powyższego zapisu symbolicznego wygenerować kod maszynowy czyli definicje zero-jedynkową sumy logicznej.
Przyjmujemy logikę dodatnią:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
i mamy to co fanatycy zer i jedynek lubią najbardziej.
Definicja zero-jedynkowa sumy logicznej:
Kod: |
p q Y=p+q ~Y=~(p+q)
1 1 =1 0
1 0 =1 0
0 1 =1 0
0 0 =0 1
|
Zauważmy, że w powyższej tabeli mamy pełną zgodność z definicją logiki dodatniej i ujemnej. W logice dodatniej (Y=1) mamy odpowiedź na pytanie kiedy wystąpi prawda, zaś w logice ujemnej (~Y=1) mamy odpowiedź na pytanie kiedy wystąpi fałsz.
W tabeli widać też znaczenie kolumny wynikowej w logice dodatniej (Y):
Y=1 - dotrzymam słowa
Y=0 - skłamię
Znaczenie kolumny wynikowej w logice ujemnej (~Y):
~Y=0 - dotrzymam słowa
~Y=1 - skłamię
Matematycznie wszystko musi się zgadzać czyli:
Y=~(~Y) =1 - dotrzymam słowa w logice dodatniej
Y=~(~Y)=0 - skłamię w logice dodatniej
Oczywiście matematycznie zachodzi:
Y=~(~Y) - prawo podwójnego przeczenia
oraz:
Y#~Y
czyli jedynka w logice dodatniej (Y) to zupełnie co innego niż jedynka w logice ujemnej (~Y).
Oczywiście wszystko musi się tu zgadzać czyli:
Y=~(~Y)=Y - oczywistość w powyższej tabeli
oraz:
~Y=1 czyli Y=0 - sprowadzenie fałszu w logice ujemnej (~Y=1) do fałszu w logice dodatniej (Y=0).
2.7 Prawo Prosiaczka
Prawo Prosiaczka mówi o sposobie przejścia z tabeli zero-jedynkowej n-elementowej do równania algebry Boole’a opisującego tą tabelę.
Definicja zero-jedynkowa sumy logicznej:
Kod: |
p q Y=p+q ~Y=~(p+q)
1 1 =1 0
1 0 =1 0
0 1 =1 0
0 0 =0 1
|
Kubuś, nauczyciel logiki w I klasie LO w stumilowym lesie:
Kto potrafi z powyższej tabeli zero-jedynkowej wygenerować równanie algebry Boole’a ?
Wszystkie ręce w górze, do tablicy podchodzi Jaś:
W ostatniej linii w wyniku mamy samotne zero, zatem dla tej linii możemy zapisać najprostsze równanie.
Z tabeli widzimy że:
A.
Y=0 <=> p=0 i q=0
Przejście z takiego zapisu do równań algebry Boole’a jest banalne. Należy skorzystać z definicji iloczynu logicznego sprowadzając wszystkie zmienne do jedynki albo z definicji sumy logicznej sprowadzając wszystkie zmienne do zera.
Sposób I.
Sprowadzam wszystkie zmienne do jedynki:
B.
Y=0 czyli ~Y=1
p=0 czyli ~p=1
q=0 czyli ~q=1
Definicja iloczynu logicznego:
Iloczyn logiczny jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Korzystając z A i B na podstawie tej definicji mamy:
~Y = ~p*~q
Przechodzimy do logiki przeciwnej metodą przedszkolaka negując wszystkie zmienne i wymieniając operator AND(*) na OR(+):
Y = p+q
Sposób II
Sprowadzamy wszystkie zmienne do zera i stosujemy definicję sumy logicznej.
Definicja sumy logicznej:
Suma logiczna jest równa zeru wtedy i tylko wtedy gdy wszystkie składniki sumy są równe zeru
W równaniu A wszystkie zmienne są równe zeru, zatem tu nic nie musimy robić, od razu mamy równanie algebry Boole’a dla powyższej tabeli zero-jedynkowej.
Y=p+q
Kubuś:
Jasiu, zapisałeś równanie algebry Boole’a wyłącznie dla ostatniej linii, skąd wiesz jakie będą wartości logiczne w pozostałych liniach, nie opisanych tym równaniem ?
Prawo Prosiaczka:
Równania algebry Boole’a dla dowolnej tabeli zero-jedynkowej n-elementowej tworzymy na podstawie linii z tą samą wartością logiczną w wyniku. Wszelkie nie opisane równaniami linie przyjmą wartości przeciwne do linii opisanych.
Powyżej ułożyliśmy równanie wyłącznie dla ostatniej linii tabeli gdzie w wyniku było zero, wszelkie pozostałe linie, zgodnie z prawem Prosiaczka muszą być jedynkami niezależnie od chciejstwa człowieka … bo to jest matematyka przecież.
2.8 Definicja iloczynu logicznego
Definicja iloczynu logicznego:
Iloczyn logiczny jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Y=A1*A2* … *An =1 <=> A1=1, A2=1 … An=1
Definicja równoważna:
Iloczyn logiczny jest równy zeru jeśli którakolwiek zmienna jest równa zeru.
Jutro pójdę do kina i do teatru
Y=K*T
Matematycznie:
Dotrzymam słowa (Y) jeśli jutro pójdę do kina i do teatru
Y=K*T
… a kiedy skłamię ?
Przejście do logiki ujemnej metodą przedszkolaka, negujemy zmienne i wymieniamy operator.
Skłamię (~Y) jeśli jutro nie pójdę do kina lub nie pójdę teatru
~Y=~K+~T
Oczywiście dotrzymam słowa wtedy i tylko wtedy gdy pójdę do kina i do teatru, w przeciwnym przypadku skłamię. Rozpiszmy szczegółowo te przypadki.
K*T=Y - dotrzymam słowa jeśli pójdę do kina i do teatru
W przeciwnym przypadku skłamię czyli uzupełniamy pozostałe możliwości:
K*~T=~Y - skłamię (~Y) jeśli pójdę do kina i nie pójdę do teatru
~K*~T=~Y - skłamię (~Y) jeśli nie pójdę do kina i nie pójdę do teatru
~K*T =~Y - skłamię (~Y) jeśli nie pójdę do kina i pójdę do teatru
Oczywiście skłamię jeśli wystąpi którykolwiek z powyższych przypadków czyli:
~Y = K*~T + ~K*~T + ~K*T
Na podstawie powyższego budujemy tabelę prawdy dla iloczyny logicznego
Kod: |
K T = Y=K*T
K ~T =~Y
~K ~T =~Y
~K T =~Y
|
Przechodzimy teraz na zapis symboliczny przy użyciu parametrów formalnych p i q podstawiając:
p=K, q=T
stąd mamy symboliczną definicje iloczynu logicznego:
Kod: |
p q = Y=p*q
p q = Y
p ~q =~Y
~p ~q =~Y
~p q =~Y
|
Zauważmy, że tu również uzyskaliśmy pełną definicję iloczynu logicznego na poziomie symbolicznym czyli absolutne zero styczności z kodem maszynowym, zerami i jedynkami.
Równania algebry Boole’a najłatwiej utworzyć korzystając z definicji symbolicznej.
Z pierwszej linii otrzymujemy najprostsze równanie:
A1: Y=p*q - dotrzymam słowa
Z kolejnych trzech linii mamy:
B1: ~Y=(p*~q) + (~p*~q) + (~p*q) - skłamię
W sumie na podstawie powyższych równań możemy ułożyć aż osiem różnych zdań, cztery z nich (matematycznie równoważne) będą mówiły kiedy dotrzymam słowa (Y), zaś kolejne cztery (także równoważne) kiedy skłamię (~Y).
A1: Y=p*q - dotrzymam słowa
Dotrzymam słowa (Y), jeśli jutro pójdę do kina i do teatru
Y=K*T
Negujemy równania dwustronnie:
A2: ~Y=~(p*q) - skłamię
Skłamię (~Y), jeśli nie zdarzy się ~(…) że jutro pójdę do kina i do teatru
~Y=~(K*T)
Przechodzimy z równaniem A1 do logiki ujemnej metodą przedszkolaka negując zmienne i wymieniając operatory na przeciwne:
A3: ~Y=~p+~q - skłamię
Skłamię (~Y), jeśli jutro nie pójdę do kina lub nie pójdę do teatru
~Y=~K+~T
Negujemy dwustronnie równanie A3:
A4: Y=~(~p+~q) - dotrzymam słowa
Dotrzymam słowa (Y), jeśli nie zdarzy się ~(…) że jutro nie pójdę do kina lub nie pójdę do teatru
Y=~(~K+~T)
To co wyżej to najczęstsze zdania w języku mówionym. Zdania serii B są zdecydowanie rzadsze bo bardziej złożone.
B1: ~Y=(p*~q) + (~p*~q) + (~p*q) - skłamię
~Y=(K*~T)+(~K*~T)+(~K*T)
Skłamię (~Y), jeśli zdarzy się którykolwiek z powyższych przypadków.
Negujemy dwustronnie:
B2: Y=~[(p*~q) + (~p*~q) + (~p*q)] - dotrzymam słowa
Przechodzimy z równaniem B1 do logiki przeciwnej negując zmienne i wymieniając operatory na przeciwne:
B3: Y=(~p+q)*(p+q)*(p+~q) - dotrzymam słowa
Negujemy dwustronnie:
B4: ~Y=~[(~p+q)*(p+q)*(p+~q)] - skłamię
W sumie mamy fantastyczną właściwość języka mówionego czyli powiedzenie tego samego na wiele różnych sposobów. Zauważmy, że nigdzie wyżej nie mamy styczności z kodem maszynowym języka czyli idiotycznymi zerami i jedynkami. Taki związek oczywiście istnieje i jest łatwy do pokazania.
Przechodzimy do zero-jedynkowej definicji iloczynu logicznego w logice dodatniej przyjmując:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
Zero jedynkowa definicja iloczynu logicznego:
Kod: |
p q Y=p*q ~Y=~(p*q)
1 1 =1 0
1 0 =0 1
0 0 =0 1
0 1 =0 1
|
Tu również mamy doskonałą zgodność z definicją logiki dodatniej i ujemnej.
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy p*q czyli:
Y=p*q - dotrzymam słowa
Skłamię (~Y=1) gdy:
~Y=p*~q + ~p*~q + ~p*q - skłamię
Załóżmy teraz, że mamy wyłącznie tabelę zero-jedynkową jak wyżej. Jak dla takiej tabeli ułożyć równanie algebry Boole’a. Oczywiście najprostsze równanie uzyskamy z pierwszej linii bo mamy tu samotną jedynkę w wyniku. Na podstawie tej linii możemy ułożyć równanie na dwa sposoby.
Dla powyższej tabeli możemy zapisać:
A.
Y=1 <=> p=1 i q=1 - na podstawie pierwszej linii
Sposób I
Sprowadzamy wszystkie sygnały do jedynki i korzystamy z definicji iloczynu logicznego.
Definicja iloczynu logicznego:
Iloczyn logiczny jest równy jeden gdy wszystkie składniki iloczynu są równe jeden
Wszystkie sygnały w równaniu A są jedynkami zatem tylko je przepisujemy, nic nie musimy negować.
Y=p*q
Sposób II
Sprowadzamy wszystkie sygnały do zera i korzystamy z definicji sumy logicznej.
Definicja sumy logicznej:
Suma logiczna jest równa zeru gdy wszystkie składniki sumy są równe zeru
Sprowadzamy sygnały A do zera:
Y=1 czyli ~Y=0
p=1 czyli ~p=0
q=1 czyli ~q=0
Stąd na podstawie definicji sumy logicznej mamy:
~Y = ~p+~q
Oczywiście przechodzimy do logiki dodatniej ponieważ człowiek używa logiki ujemnej wyłącznie w przeczeniach. Negujemy sygnały i wymieniamy operatory na przeciwne.
Y=p*q
Na zakończenie zabawy z operatorami typu AND(*) i OR(+) pokażemy dowód prawa de’Morgana metodą zero-jedynkową.
2.9 Dowody zero-jedynkowe w algebrze Boole’a
Dowody zero-jedynkowe w algebrze Boole’a są równoważne do odpowiednich dowodów w równaniach matematycznych które wykonywaliśmy do tej pory. Dowody te są zdecydowanie bardziej czasochłonne i w wielu przypadkach nie wiadomo o co chodzi np. zasługą dowodów zero-jedynkowych jest fakt, że człowiek do tej pory nie był w stanie zlokalizować implikacji którą się posługuje.
Prawo de’Morgana:
p*q=~(~p+~q)
Dowód zero-jedynkowy:
Kod: |
p q Y=p*q ~p ~q ~Y=~p+~q Y=~(~p+~q)
1 1 1 0 0 0 1
1 0 0 0 1 1 0
0 0 0 1 1 1 0
0 1 0 1 0 1 0
|
Jak widać rozpatrujemy tu wszystkie możliwe przypadki dla zmiennych p i q. Równość kolumn trzeciej i ostatniej wskazuje na poprawność prawa de’Morgana. Kluczową różnicą tabeli wyżej w stosunku do identycznej tabeli znanej matematykom jest rozróżnianie logiki dodatniej (Y) od logiki ujemnej (~Y). Zdanie p*q w logice dodatniej (Y) to zupełnie co innego niże zdanie ~p+~q w logice ujemnej (~Y).
Zobaczmy po raz n-ty jak genialnie prosto przechodzi mózg przedszkolaka z logiki dodatniej do ujemnej.
Jutro pójdę do kina i do teatru
Y=K*T
Matematycznie oznacza to:
Dotrzymam słowa (Y) jeśli jutro pójdę do kina i do teatru
A: Y=K*T
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne:
~Y=~K+~T
Skłamię (~Y), jeśli jutro nie pójdę do kina lub nie pójdę do teatru
~Y=~K+~T
… a czy może się zdarzyć, że jutro nie pójdę do kina lub nie pójdę do teatru ?
Negujemy powyższe równanie dwustronnie:
B: Y=~(~K+~T)
Nie może się zdarzyć ~(…), że jutro nie pójdę do kina lub nie pójdę do teatru
~(~K+~T)
Z równań A i B mamy prawo de’Morgana:
K*T = ~(~K+~T)
Jak widzimy w języku mówionym każdy człowiek stosuje podświadomie prawa de’Morgana ….potrafi to robić nawet przedszkolak, naturalny ekspert algebry Kubusia.
Na zakończenie pokażemy dowód prawa de’Morgana w bramkach logicznych. Bramki logiczne to graficzna ilustracja skomplikowanych niekiedy przekształceń matematycznych. Dzięki nim łatwiej zorientować się „o co tu chodzi”.
2.10 Logika dodatnia i ujemna w bramkach logicznych
Podstawowe pojęcia w teorii układów logicznych.
Sygnał cyfrowy (zmienna binarna) to sygnał mogący przyjmować w osi czasu wyłącznie dwa stany 0 albo 1.
Wyjście cyfrowe (funkcja logiczna) to wyjście układu logicznego, dowolnie złożonego, zbudowanego z bramek logicznych typu OR(+) lub AND(*) oraz negatorów.
Bramki logiczne to domena elektroników logików. Już na pierwszym wykładzie z „Teorii układów logicznych” dowiadujemy się, że w dowolną linię układu logicznego zbudowanego na bramkach logicznych możemy wstawić dwa negatory (na schemacie kółka) i nic się nie zmieni zgodnie z prawem podwójnego przeczenia.
A=~(~A)
Kod: |
Negator i prawo podwójnego przeczenia
Y=A ~Y=~A Y=~(~A)=A
-----O-------------O---------
|
Na wejście negatora (na schematach kółko) podajemy sygnał A, na jego wyjściu otrzymujemy sygnał zanegowany ~A który podajemy na kolejny negator. Po drugim negatorze mamy oczywiście sygnał cyfrowy identyczny z A zgodnie z prawem podwójnego przeczenia.
Po drugim wykładzie wiemy już jak zastąpić bramkę OR(+) bramką AND(*) i odwrotnie. Tu korzystamy z praw de’Morgana.
p*q = ~(~p+~q) - prawo zamiany bramki AND(*) na OR(+)
p+q = ~(~p*~q) - prawo zamiany bramki OR(+) na AND(*)
Przy pomocy negatora możemy symbolicznie pokazać obsługę zdań prostych.
Jutro nie pójdę do kina
Y=~K
czyli matematycznie:
Dotrzyma słowa (Y), jeśli jutro nie pójdę do kina
Y=~K
Kiedy skłamię ?
Negujemy dwustronnie.
Skłamię (~Y), jeśli jutro pójdę do kina
~Y=~(~K)=K
Zastosowaliśmy tu prawo podwójnego przeczenia K=~(~K)
Kod: |
-------
| |
Y=~K ----------| ~ |O----------> ~Y=K
| |
-------
|
W technice cyfrowej symbolem negacji jest kółko, nie musimy rysować całego negatora jak wyżej. Ze schematu widać że, na wejście negatora podajemy sygnał (funkcję logiczną) Y=~K, zaś na wyjściu otrzymujemy sygnał zanegowany ~Y=K.
Oczywiście mamy:
Y#~Y
czyli sygnał na wejściu negatora to zupełnie co innego niż sygnał na jego wyjściu.
Łatwo się o tym przekonać biorąc do ręki rzeczywisty negator np. układ scalony 7404. Jeśli na wejście rzeczywistego negatora podamy cyfrowy sygnał zero-jedynkowy (zmienny w czasie) to na jego wyjściu otrzymamy lustrzane odbicie sygnału wejściowego, co łatwo można zaobserwować na oscyloskopie, przyrządzie służącym do wizualizacji przebiegów zmiennych.
Zwarcie kabelkiem wejścia negatora z wyjściem, czyli wymuszenie:
Y=~Y
grozi oczywiście wybuchem czyli dużo dymu i smrodu.
Podstawowe schematy elektroniczne bramek OR(+) i AND(*) są następujące.
Kod: |
Bramka OR i jej schemat zastępczy wynikający z prawa de’Morgana
p q p q
| | | |
| | O O
------- -------
| | = | |
| OR | | AND |
------- -------
| O
| |
Y=p+q = Y=~(~p*~q)
|
Z powyższego wynika, że bramkę OR możemy zastąpić bramką AND plus trzema negatorami wstawionymi w linie wejściowe p i q oraz linię wyjściową Y.
Kod: |
Bramka AND i jej schemat zastępczy wynikający z prawa de’Morgana
p q p q
| | | |
| | O O
------- -------
| | = | |
| AND | | OR |
------- -------
| O
| |
Y=p*q = Y=~(~p+~q)
|
Podobnie bramkę AND możemy zastąpić bramką OR plus trzema negatorami. Fizycznie oznacza to, że możemy zbudować dwa układy jak wyżej (w technice cyfrowej to banał) a następnie połączyć sygnały p-p, q-q, Y-Y i wszystko będzie dalej pięknie działało.
Powróćmy jeszcze raz do dowodu praw de’Morgana uwzględniającego logikę dodatnią i ujemną by zobaczyć na bramkach logicznych skąd się to bierze.
Kod: |
p q Y=p*q ~p ~q ~Y=~p+~q Y=~(~p+~q)
1 1 1 0 0 0 1
1 0 0 0 1 1 0
0 0 0 1 1 1 0
0 1 0 1 0 1 0
|
Równość kolumn trzeciej i ostatniej jest dowodem poprawności prawa de’Morgana. Ten sam dowód krok po kroku w bramkach logicznych.
Na początku była bramka AND(*) ….
Kod: |
p q p q p q
| | | | | |
| | O O O O
| | |~p |~q |~p |~q
| | O O | |
| | |p |q | |
------- ------- -------
| | = | | = | |
| AND | | AND | | OR |
------- ------- -------
| |Y=p*q |
| O |
| |~Y=~(p*q) |~Y=~p+~q
| O O
| | |
Y=p*q = Y=p*q Y=~(~p+~q)
A B C
|
Schemat A:
Bramka AND rodem z teorii układów logicznych, realizująca funkcję logiczną Y=p*q.
Schemat B:
Na rysunku B wstawiliśmy w każdą linię wejściową bramki po dwie negacje oraz w linię wyjściową Y również dwie negacje.
Taki układ oczywiście nie zmieni się bo:
A=~(~A) - prawo podwójnego przeczenia.
W linii wejściowej p po minięciu pierwszego negatora otrzymamy sygnał ~p ale po minięciu drugiego negatora będziemy mieli sygnał p, identyczny jak na wejściu. Identycznie mamy w linii wejściowej q. Na wyjściu bramki AND mamy sygnał Y=p*q, po minięciu pierwszego negatora mamy ten sam sygnał w logice ujemnej ~Y=~(p*q), zaś po minięciu kolejnego negatora mamy sygnał identyczny jak bezpośrednio na wyjściu bramki AND czyli Y=p*q
Schemat C:
Ten schemat różni się od B wyłącznie tym, że zastosowaliśmy układ zastępczy bramki AND z zanegowanymi wejściami i zanegowanym wyjściem, którym jest po prostu bramka OR. Oczywiście na wyjściu ~Y mamy teraz ~Y=~p+~q zgodnie ze schematem ideowym, zaś po minięciu negatora na wyjściu (negujemy dwustronnie) mamy Y=~(~p+~q).
W matematyce wszystko musi się zgadzać.
Dla rysunków B i C mamy dla wyjścia ~Y:
~Y=~Y
czyli:
~(p*q) = ~p+~q - prawo de’Morgana w równoważnym zapisie
Zaś dla wyjścia Y:
Y=Y
czyli:
p*q = ~(~p+~q) - prawo de’Morgana w najpopularniejszym zapisie
Jak widzimy wyżej, przedszkolak przechodząc z logiki dodatniej do ujemnej w genialnie prosty sposób nie robi nic nadzwyczajnego.
Y=p*q
przejście do logiki ujemnej poprzez negację sygnałów i wymianę operatorów na przeciwne:
~Y=~p+~q
Wszystko jest tu w 100% zgodne z teorią bramek logicznych, czyli algebrą Boole’a. Mam nadzieję, że wszyscy rozumieją teraz dlaczego w nowatorskiej tabeli zero-jedynkowego dowodu prawa de’Morgana wyżej widnieje zapis ~Y=~p+~q a nie jak to jest w dzisiejszej matematyce gołe ~p+~q, które nie wiadomo czym jest.
Oczywiście sygnały w punktach Y i ~Y to zupełnie co innego, gdybyśmy je połączyli kabelkiem na powyższym schemacie (czyli wymusili Y=~Y) byłoby dużo dymu i smrodu, wszystko wyleciałoby w powietrze.
Przykład:
Jutro pójdę do kina i do teatru
Y=K+T
Matematycznie oznacza to:
Dotrzymam słowa (Y=1), jeśli jutro pójdę do kina i do teatru
Y=K*T
gdzie: Y=1 - zdanie prawdziwe
…. a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów.
~Y=~K+~T
Skłamię (~Y=1), jeśli jutro nie pójdę do kina lub nie pójdę do teatru
~Y=~K+~T
gdzie: ~Y=1 - zdanie prawdziwe
Mamy tu do czynienia ze zdaniami prawdziwymi, ale nie równoważnymi bowiem występującymi w przeciwnych logikach.
2.11 Operatory AND i OR w logice człowieka
W algebrze Boole’a z operatorami AND i OR da się wypowiedzieć cztery różne zdania, a po uwzględnieniu praw de’Morgana nawet osiem.
p*q = ~(~p+~q)
p+q = ~(~p*~q)
~(p*q) = ~p+~q
~(p+q) = ~p*~q
W języku mówionym w zdaniach prostych przedrostek dotrzymam słowa (Y) jest domyślny czyli:
Jutro pójdę do kina lub do teatru
Y=K+T
matematycznie oznacza:
Dotrzymam słowa (Y) jeśli jutro pójdę do kina lub do teatru
Y=K+T
… a kiedy skłamię ?
Przechodzimy z powyższym do logiki przeciwnej metodą przedszkolaka czyli negujemy zmienne i odwracamy operatory.
~Y=~K*~T
Skłamię (~Y), jeśli jutro nie pójdę do kina i nie pójdę do teatru
~Y=~K*~T
Przedrostek skłamię (~Y) nie jest domyślny i musi zostać wypowiedziany czyli:
Skłamię (~Y), jeśli jutro pójdę do kina lub do teatru
~Y=K+T
… a kiedy powiem prawdę ?
Przechodzimy z powyższym do logiki przeciwnej czyli negujemy zmienne i odwracamy operatory.
Y=~K*~T
czyli:
Dotrzymam słowa (Y), jeśli jutro nie pójdę do kina i nie pójdę do teatru
Y=~K*~T
Oczywiście zdanie w logice dodatniej (Y) nie jest równoważne zdaniu w logice ujemnej (~Y) mimo że oba zdania są prawdziwe, tak wiec prawdziwość zdania nie oznacza automatycznie równoważności zdania.
3.0 Zero-jedynkowa algebra Boole’a
Algebra Kubusia, matematyka języka mówionego, jest algebrą symboliczną mającą 100% przełożenie na kod maszynowy czyli zera i jedynki, co pokazaliśmy wyżej.
Klasyczna, zero-jedynkowa algebra Boole’a to w dniu dzisiejszym zabytek klasy zerowej. Algebra ta jest co prawda fundamentem działania wszelkich komputerów (i całego naszego Wszechświata) ale człowiek myślał w zerach i jedynkach zaledwie przez mgnienie oka. Natychmiast wynalazł język symboliczny zwany asemblerem izolując się od kodu maszynowego … czyli skopiował działanie własnego mózgu. Żaden programista pisząc programy nie myśli w zerach i jedynkach bo to po prostu horror. Klasyczna algebra Boole’a jest zupełnie nieprzydatna w technice bowiem nikt nie projektuje już automatów cyfrowych na bramkach logicznych, jak to miało miejsce przed wynalezieniem mikroprocesora. Pierwszy przyzwoity mikroprocesor (Intel 8080) pojawił się w roku 1974, ale już przed nim algebra Boole’a załamała się na układach cyfrowych średniej skali integracji (liczniki, rejestry, multipleksery itp.).
Oczywiście algebra Boole’a w najprostszej postaci będzie w technice przydatna zawsze, ale już nikt nigdy nie będzie używał bramek logicznych do projektowania złożonych automatów cyfrowych, tu królują mikroprocesory.
Fundamentalne prawa algebry Boole’a musi znać każdy programista piszący programy w dowolnym języku programowania … ale normalni ludzie nie muszą, tak wiec wszyscy których nie interesuje pisanie programów mogą ten rozdział pominąć.
3.1 Prawa wynikające z definicji iloczynu logicznego
Definicja iloczynu logicznego:
Iloczyn logiczny n-zmiennych binarnych jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Definicja równoważna:
Iloczyn logiczny jest równy zeru gdy którakolwiek zmienna jest równa zeru.
Prawa wynikające bezpośrednio z definicji:
1*0=0
1*1=1
A*0=0
A*1=A
A*A=A
A*~A=0
W języku mówionym powyższe prawa nie są używane, przydają się jedynie w technice cyfrowej.
3.2 Prawa wynikające z definicji sumy logicznej
Definicja sumy logicznej:
Suma logiczna n-zminnych binarnych jest równa zeru wtedy i tylko wtedy gdy wszystkie zmienne są równe zeru.
Definicja równoważna:
Suma logiczna jest równa jeden gdy którakolwiek zmienna jest równa 1
Prawa wynikające bezpośrednio z definicji:
1+0=1
0+0=0
A+1=1
A+0=A
A+A=A
A+~A=1
W języku mówionym powyższe prawa nie są używane, przydają się jedynie w technice cyfrowej.
3.3 Najważniejsze prawa algebry Boole’a
W języku mówionym prawa łączności i przemienności to oczywistość, natomiast absorpcja, rozdzielność i pochłanianie są przydatne jedynie w technice cyfrowej.
Łączność:
A+(B+C) = (A+B)+C
A*(B*C)=(A*B)*C
Przemienność:
A+B=B+C
A*B=B*C
Absorbcja:
A+(A*B)=A
Dowód:
Jeśli A=1 to A+(A*B)=1+(A*B)=1
Jeśli A=0 to A+(A*B)=0+(0*B)=0+0=0
niezależnie od wartości B
CND
A*(A+B)=A
Dowód:
Jeśli A=1 to A*(A+B)= 1*(1+B)=1*1=1
Jeśli A=0 to A*(A+B)=0*(A+B)=0
niezależnie od wartości B.
CND
Rozdzielność:
A+(B*C) = (A+B)*(A+C)
A*(B+C)=(A*B)+(B*C)
Pochłanianie:
A*~A=0
A+~A=1
3.4 Operatory dodatnie i operatory ujemne
Tabela legalnych operatorów logicznych typu AND(*) I OR(+)
Kod: |
Tabela A
p q Y=p+q ~Y=pNORq Y=p*q ~Y=pNANDq
0 0 0 1 0 1
0 1 1 0 0 1
1 0 1 0 0 1
1 1 1 0 1 0
|
OR(+), AND(*) - operatory w logice dodatniej
NOR, NAND - operatory w logice ujemnej
Porównajmy powyższą tabele z tabelą używaną przez nas do tej pory.
Kod: |
Tabela B
p q Y=p+q ~Y=~(p+q) Y=p*q ~Y=~(p*q)
0 0 0 1 0 1
0 1 1 0 0 1
1 0 1 0 0 1
1 1 1 0 1 0
|
Z powyższych tabel wynikają definicje operatorów NOR i NAND:
pNORq = ~(p+q) = ~p*~q - na podstawie prawa de’Morgana
pNANDq = ~(p*q) = ~p+~q - na podstawie prawa de’Morgana
bo:
~Y=~Y
Stąd w katalogach układów cyfrowych znajdziemy takie definicje bramek NOR i NAND.
Funkcja logiczna realizowana przez bramkę NOR:
Y=~(p+q)
Funkcja logiczna realizowana przez bramkę NAND:
Y=~(p*q)
Zauważmy, że po takim manewrze operatorów ujemnych NAND i NOR nie wolno mieszać z operatorami dodatnimi AND i OR ponieważ zachodzi.
Y(NAND, NOR) # Y(AND, OR)
co doskonale widać na bramkach logicznych.
Kod: |
Bramka AND i bramka NAND
p q p q
| | | |
| | | |
------- -------
| | = | |
| AND | | NAND|
------- -------
| O
| |
|Y=p*q | Y=pNANDq=~(p*q)
O O
| |
|~Y=~(p*q) |~Y=~(pNANDq)=p*q
A B
|
A - punkt odniesienia, operator AND(*)
B - punkt odniesienia, operator NAND
Oczywistym jest, że zwarcie pozornie identycznych sygnałów:
Y=Y lub ~Y=~Y
grozi wysadzeniem bramki w powietrze.
Na powyższym schemacie zachodzą tożsamości po przekątnych czyli absolutna bzdura z punktu widzenia algebry Boole’a bo wtedy mamy:
Y=~Y
czyli:
Y=p*q <=> ~Y=~(pNANDq) = p*q
Wniosek:
Można myśleć logicznie albo w operatorach dodatnich AND i OR, albo w operatorach ujemnych NAND i NOR. Mieszanie tych operatorów w jednej logice to głupota.
Punkt odniesienia, operatory dodatnie AND i OR:
Y=prawda
~Y=fałsz
Punkt odniesienia, operatory ujemne NAND i NOR:
Y=fałsz
~Y=prawda
Wróćmy do symbolicznej definicji bramki AND.
Kod: |
Tabela A
p q = Y=p*q
p q = Y
p ~q =~Y
~p ~q =~Y
~p q =~Y
|
Dla punktu odniesienia AND i OR w tabeli A przyjmujemy:
p=1, ~p=0
q=1, ~q=0
Y=1(prawda), ~Y=0(Fałsz)
Tabela zero jedynkowa iloczynu logicznego dla punktu odniesienia AND(*) i OR(+):
Kod: |
p q Y=p*q=~(pNANDq) ~Y=~(p*q)=pNANDq
1 1 1 0
1 0 0 1
0 0 0 1
0 1 0 1
|
stąd:
Definicja operatora AND:
Y=1 <=> p=1 i q=1
Dla punktu odniesienia NAND i NOR w tabeli A przyjmujemy:
p=1, ~p=0
q=1, ~q=0
Y=0(fałsz), ~Y=1(prawda)
Tabela zero jedynkowa iloczynu logicznego dla punktu odniesienia NAND i NOR:
Kod: |
p q Y=pNANDq=~(p*q) ~Y=~(pNANDq)=p*q
1 1 0 1
1 0 1 0
0 0 1 0
0 1 1 0
|
stąd:
Definicja operatora NAND:
Y=0 <=> p=1 i q=1
Ostatnio zmieniony przez rafal3006 dnia Sob 19:13, 19 Wrz 2009, w całości zmieniany 150 razy
|
|
Powrót do góry |
|
|
|
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35368
Przeczytał: 20 tematów
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Śro 17:26, 15 Lip 2009 Temat postu: |
|
|
Część II Implikacja
Dobry film powinien zacząć się od trzęsienia ziemi, a następnie napięcie powinno stopniowo wzrastać.
Alfred Hitchcock
Dowód fałszywości prawa kontrapozycji w implikacji, co za chwilę stanie się faktem, to tylko trzęsienie ziemi w matematyce.
Przyjęcie nowych, poprawnych definicji implikacji prostej => i odwrotnej ~> to śmiertelny cios dla wszelkich znanych człowiekowi fałszywych definicji implikacji: implikacji materialnej, logicznej i ścisłej … czyli wszelkie teorie zbudowane na tych definicjach lądują w koszu na śmieci. Oczywiście mówiąc o poprawnych i fałszywych definicjach mamy na myśli poprawną i fałszywą interpretację kodu zero-jedynkowego odpowiednich definicji.
Jeśli ludzie to załapią, to będzie to koniec starego świata w matematyce i początek nowego.
Punkt 4.0 zawiera sedno całości ... w zasadzie od niego można by zacząć i na nim zakończyć. Mam nadzieję, że będzie to koniec matematycznego wariatkowa w którym aktualnie żyjemy, w którym jeden matematyk nie rozumie co pisze drugi matematyk, przykład tutaj
Notacja:
* - symbol iloczynu logicznego (AND), w mowie potocznej spójnik 'i'
+ - symbol sumy logicznej (OR), w mowie potocznej spójnik "lub"
~ - przeczenie, negacja (NOT), w mowie potocznej "NIE"
# - różne
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” => zajść q
p musi być warunkiem wystarczającym dla q
=> - operator implikacji prostej, spójnik „musi” ze spełnionym warunkiem wystarczającym
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Spójniki zdaniowe
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Prawa Kubusia
p=>q = ~p~>~q - prawo zamiany implikacji prostej => na implikację odwrotną ~>
p~>q = ~p=>~q - prawo zamiany implikacji odwrotnej ~> na implikację prostą =>
W implikacji (inaczej niż w części I) dla uproszczenia używać będziemy bezwzględnych zer i jedynek wyłącznie dla określenia prawdziwości zdania:
1 - zdanie prawdziwe
0 - zdanie fałszywe
To „uproszczenie” wynika tylko i wyłącznie z przyzwyczajeń przeciętnego człowieka do powyższego standardu. Elegancja w matematyce polega na wyprowadzeniu wzoru ogólnego i dopiero na końcu na podstawieniu danych.
Gdybyśmy w tej publikacji użyli symboli w 100% czyli zastosowali:
Y - zdanie prawdziwe
~Y - zdanie fałszywe
to otrzymalibyśmy w pełni symboliczne tabele operatorowe implikacji prostej, implikacji odwrotnej i równoważności czyli zero styczności z zerami i jedynkami.
4.0 Prawda o implikacji
Dzisiejsza logika w obszarze implikacji to robienie z rzeczy nieprawdopodobnie prostej, rzeczy nieprawdopodobnie trudnej
Kubuś
Twierdzenia matematyczne uważane są za prawdziwe, albowiem w niczyim interesie nie leży, by uważać je za fałszywe
Monteskiusz
Wikipedia:
Karol Ludwik Monteskiusz (ur. 18 stycznia 1689 w La Brede, zm. 10 lutego 1755 w Paryżu), francuski filozof, prawnik, wolnomularz i pisarz epoki Oświecenia.
... ano właśnie, stary ten filozof ale trafił w sedno sprawy.
W czyim interesie leży poznanie prawdy o implikacji ?
W czyim interesie leży sprowadzenie problemu implikacji do poziomu 5-cio letniego dziecka, naturalnego eksperta implikacji ? … oczywiście 5-cio latek nie zna teorii matematycznej, ale doskonale się nią posługuje w praktyce.
Ciekawe czy i kiedy matematycy przyjmą do wiadomości, iż implikacja prosta => nie może istnieć bez implikacji odwrotnej ~> i odwrotnie ? … operator implikacji odwrotnej ~> jest zatem niezbędny w poprawnej logice klasycznej.
Co zostanie matematykom po wyrzuceniu do kosza fałszywych interpretacji zero-jedynkowych definicji implikacji czyli: implikacji materialnej, logicznej i ścisłej ?
Co zostanie matematykom po bezdyskusyjnym dowodzie, iż prawa kontrapozycji są fałszywe w implikacji ?
Co zostanie matematykom po bezdyskusyjnym fakcie, iż kwantyfikator duży "dla każdego" wynika z warunku wystarczającego w definicji implikacji prostej (nigdy odwrotnie jak chciałby Macjan), zaś kwantyfikator mały "istnieje" jest do kitu w opisie implikacji odwrotnej ?
Definicje zero-jedynkowe fundamentalnych operatorów logicznych AND, OR, implikacji prostej => i odwrotnej ~> to nie jest czysta abstrakcja w rodzaju przestrzeni 1000-wymiarowych itp. Tu każdemu matematykowi można łatwo pokazać gdzie popełnia błąd … pytanie tylko czy zechce to przyjąć do wiadomości. Algebra Boole’a jest jedna i nie ma tu miejsca na różne interpretacje tego samego kodu zero-jedynkowego implikacji, prawdziwa interpretacja może być tylko jedna.
Matematycy w merytorycznej dyskusji z Kubusiem na temat implikacji są po prostu przerażeni czego dowodem może być ten [link widoczny dla zalogowanych] na matematyce.pl … i fakt jego zamknięcia z uzasadnieniem moderatora Rogala, iż nowa teoria implikacji „nie jest nikomu potrzebna”.
Niektórzy eksperci starej ery logiki (mam nadzieję że nie wszyscy), jak Idiota Wioskowy, na dźwięk słowa „Kubuś” popadają w histerię, przykład tutaj
4.1 Aktualny stan matematyki w zakresie implikacji
Implikacja to zdanie złożone warunkowe typu „Jeśli…to…”
W dzisiejszej matematyce funkcjonuje taka definicja implikacji:
Jeśli p to q
gdzie:
p - poprzednik
q - następnik
Koniec, absolutne zero jakiegokolwiek komentarza czyli kompletnie nie wiadomo o co chodzi.
Matematycznie istnieją dwie różne tabele zero-jedynkowe implikacji.
p=>q - implikacja prosta
p~>q - implikacja odwrotna
Oczywiście dzisiejsza matematyka akceptuje fakt że:
p=>q # p~>q
Jednak z powodu fałszywej interpretacji zer i jedynek w definicjach implikacji wychodzi jej że implikacja odwrotna jest zbędna.
Ujmując rzecz całą ściśle matematycznie można udowodnić, że wszystkie operatory logiczne są zbędne za wyjątkiem jednego, NOR albo NAND … nie o to jednak chodzi.
Twierdzenie Kubusia:
W logice niezbędne są tylko i wyłącznie te operatory których człowiek używa w naturalnym języku mówionym czyli: AND(*), OR(+), implikacja prosta =>, implikacja odwrotna ~> plus negacja (~).
Powyższego zestawu operatorów nie należy ani skracać, ani też rozszerzać bo wyjdzie z tego logika-potworek nie mająca nic wspólnego z nieprawdopodobnie prostą i doskonałą, logiką człowieka.
Implikacja to przede wszystkim matematyczny opis przyszłości, dzięki niej człowiek z góry wie kiedy w przyszłości zostanie kłamcą a kiedy nie.
4.2 Poprawne definicje implikacji
Dyskusja na forum ŚFINIA zakończyła sie rozpracowaniem implikacji, czyli czegoś czego ludzie poszukują od 2500 lat (Emde).
Jeśli ludzie to zauważą to będzie to koniec idiotyzmów KRZ (Klasyczny Rachunek Zdań) w stylu:
Z fałszu może powstać prawda
Jeśli pies jest różowy to krowa śpiewa w operze itd.
Mam nadzieje, że ludzie dostrzegą kiedyś piękno nowej teorii, i że wreszcie świat wróci do normalności poprzez nieprawdopodobne uproszczenie problemu implikacji . Oczywiście jest to szansa, bo wcale nie jest pewne czy ludzie to zauważą, powiem więcej, stary świat logiki będzie to wściekle zwalczał.
Warunki wystarczający w implikacji prostej p=>q i konieczny w implikacji odwrotnej p~>q wynikają bezpośrednio z dziewiczych definicji zero-jedynkowych tych implikacji, co zobaczymy w pkt. 5.0.
Faktu iż jeśli zdanie jest implikacją prostą to w stronę p=>q musi zachodzić warunek wystarczający, z czego wynika że w stronę q~>p musi zachodzić warunek konieczny żaden matematyk nie zaprzeczy … trąbią o tym wszelkie podręczniki do I klasy LO. To jest tylko potwierdzenie bezdyskusyjnego faktu wynikającego z definicji zero-jedynkowych (pkt.5.0)
Stąd definicje …
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” => zajść q
p musi być warunkiem wystarczającym dla q
=> - operator implikacji prostej, spójnik „musi” ze spełnionym warunkiem wystarczającym
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Spójniki zdaniowe
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Prawa Kubusia
p=>q = ~p~>~q - prawo zamiany implikacji prostej => na implikację odwrotną ~>
p~>q = ~p=>~q - prawo zamiany implikacji odwrotnej ~> na implikację prostą =>
Prawa Kubusia zostały udowodnione trzema różnymi metodami przez:
Kubuś (wirtualny Internetowy Miś) - metoda zero-jedynkowa
Wuj (matematyk, dr. Fizyki) - metoda równań algebry Boole’a
Uczy (dr. Filozofii) - metoda nie wprost
Jak widać wyżej, dowód prawa Kubusia jest bezdyskusyjny bo dokonany przez niekwestionowanych ekspertów algebry Boole’a … zresztą, to jest dowód na poziomie 16-to latka więc nie podlega dyskusji.
Twierdzenie Kubusia:
Jeśli w dowolnej implikacji prawdziwej, prostej => lub odwrotnej ~>, negujemy argumenty to musimy zmienić operator na przeciwny.
Dowód, prawa Kubusia wyżej.
Twierdzenie Kubusia:
Każdy kto twierdzi, iż w implikacji prostej prawdziwej po zanegowaniu argumentów można użyć tego samego operatora logicznego jest idiotą twierdzącym że 2+2=5
Dowód, prawa Kubusia wyżej.
To jest ta pięta Achillesowa dzisiejszej matematyki
CND
Chrystus:
A.
Kto wierzy we mnie będzie zbawiony
W=>Z=1
1 1 =1
B.
Kto wierzy we mnie nie będzie zbawiony
W=>~Z=0
1 0 =0
… a jak kto nie wierzy Panie ?
Prawo Kubusia:
W=>Z = ~W~>~Z
czyli:
C.
Kto nie wierzy we mnie ten nie będzie zbawiony
~W~>~Z=1
0 0 =1
LUB
D.
Kto nie wierzy we mnie ten może być zbawiony
~W~~>Z =1
0 1 =1
~~> - zdanie prawdziwe na podstawie naturalnego spójnika „może” ~~> (wystarczy jeden taki przypadek), nie jest to implikacja odwrotna ~>.
Tabelę zero jedynkową uzyskano podstawiając:
W=1, ~W=0
Z=1, ~Z=0
Doskonale widać zero-jedynkową definicję implikacji prostej.
Na mocy prawa Kubusia zdania A i C są absolutnie równoważne.
Implikacja to taki stwór gdzie wymawiając A automatycznie wymawiamy C, albo odwrotnie.
To jedna i ta sama tabela zero-jedynkowa
Co widać wyżej … stąd prawa Kubusia.
Uwaga:
W naturalnym języku mówionym spójnik implikacji prostej „musi” => jest domyślny i z reguły nie jest wymawiany (zdanie A). Spójnik implikacji odwrotnej „może” ~> (zdanie C) nie jest domyślny i zawsze jest wymawiany. Wyjątkiem są tu groźby, gdzie spójnik ten jest pomijany bo osłabiałby groźbę. Nie prowadzi to do niejednoznaczności wobec definicji implikacji prostej => i odwrotnej ~> oraz praw Kubusia które nie mogą być zgwałcone. Jeśli zatem mamy poprawnie zakodowaną obietnicę jako W=>Z to negacja argumentów wymusza zmianę operatora ~W~>~Z czyli matematycznie mamy tu „może” ~>. To jest matematyka pod którą człowiek podlega a nie którą on tworzy, zatem jakiegokolwiek spójnika by nie użył, to w groźbie nie zamieni „może” ~> na cokolwiek innego. Szczegóły w pkt. 11.3.
4.3 Najbardziej sensacyjny dowód w historii logiki
W tym punkcie pokażemy coś najbardziej niezwykłego w historii logiki, to tylko wstęp do tego co będzie się działo …
Posługując się naturalnym językiem mówionym 5-cio letniego dziecka udowodnimy matematykom dwie prawdy:
1.
Implikacja prosta => (spójnik „musi” - pewne wynikanie) nie może istnieć bez operatora implikacji odwrotnej ~> (spójnika „może” - rzucanie monetą).
2.
Prawo kontrapozycji jest w implikacji fałszywe, dalej będzie co najmniej kilka równoważnych dowodów tego faktu
Kubuś to przybysz ze świata techniki opartej na zaledwie dwóch operatorach algebry Boole’a, AND(*) i OR(+) plus definicja negacji (~), gdzie operator implikacji ze względu na zawartą w definicji przypadkowość jest najzwyklejszym idiotyzmem i nie jest wykorzystywany.
Algebra Boole’a to algebra bramek logicznych. Projektując cokolwiek na bramkach logicznych elektronicy praktycy posługują się naturalną logiką człowieka, symboliczną algebrą Boole’a, w 100% izolując się od idiotycznych zer i jedynek. To najważniejszy etap projektowania każdego urządzenia, poziom algorytmu, decydujący o wszystkim. Dobry algorytm to fundament gwarantujący sukces każdego urządzenia w świecie techniki. Przejście z dobrego algorytmu do techniki cyfrowej, obojętnie czy to bramki logiczne czy program komputerowy jest z reguły bardzo proste.
Pewne jest jedno, gdyby elektronicy praktycy myśleli w zerach i jedynkach, jak dzisiejsi logicy w Klasycznym Rachunku Zdań którego „fundamentem” jest rachunek zero-jedynkowy, to dosłownie nic by im nie działało.
Kubuś jest pewien, iż właśnie nadszedł koniec myślenia w zerach i jedynkach w logice klasycznej. Nadeszła era myślenia w naturalnej logice człowieka, symbolicznej algebrze Boole’a (algebrze Kubusia), zbudowanej na bardzo prostym aksjomacie rodem z teorii cyfrowych układów logicznych.
Aksjomat logików praktyków:
Jak logicznie myślimy, tak matematycznie zapisujemy. Mówimy „NIE” zapisujemy (~), mówimy „i” zapisujemy AND(*), mówimy “lub” zapisujemy OR(+), w implikacji mówimy “musi” zapisujemy ( =>), mówimy “może” zapisujemy (~> lub ~~>).
4.3.1 Implikacja w matematyce
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2 =1 bo 8,16,24… - oczywistość
1 1 =1
P8 jest wystarczające dla P2, zatem jest to implikacja prosta prawdziwa
Jeśli liczba jest podzielna przez 8 to na pewno => nie jest podzielna przez 2
P8=>~P2 =0
1 0 =0
Po stronie P8 mamy pewne wynikanie, ale po stronie ~P8 mamy najzwyklejszy przypadek czyli „rzucanie monetą”
… a jeśli liczba nie jest podzielna przez 8 ?
Prawo Kubusia:
P8=>P2 = ~P8~>~P2
czyli:
Jeśli liczba nie jest podzielna przez 8 to może ~> być niepodzielna przez 2
~P8~>~P2 =1 bo 1,3,5…
0 0 =1
LUB
Jeśli liczba nie jest podzielna przez 8 to może ~~> być podzielna przez 2
~P8~~>P2 =1 bo 2,4,6…
0 1 =1
Prawdziwość ostatniego zdania określa wzór:
(~P8~>P2)+(~P8~~>P2) = 0+1=1
Implikacja odwrotna jest tu fałszywa bo prawo Kubusia:
~P8~>P2 = P8=>~P2
Prawa strona jest ewidentnym fałszem, zatem lewa strona również musi być fałszywa.
gdzie:
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to operator implikacji odwrotnej ~>, bo prawo Kubusia zostałoby zgwałcone.
Doskonale widać tabelę zero-jedynkową implikacji prostej P8=>P2.
W kodowaniu tabeli zero-jedynkowej przyjęto logikę dodatnią:
P8=1, ~P8=0
P2=1, ~P2=0
Dzisiejsi matematycy mogą sobie przecierać oczy ze zdumienia, doskonale widać tu tabelę zero-jedynkową implikacji prostej =>. Na mocy prawa Kubusia nie sposób wygenerować tej tabeli bez operatora implikacji odwrotnej ~>, zatem implikacja prosta => nie może istnieć bez operatora implikacji odwrotnej ~>.
CND
Oczywiście po zamianie P8 i P2 miejscami implikacja prosta musi przejść w implikacje odwrotną.
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8 =1 bo 8,16,24 …
1 1 =1
P2 jest konieczne dla P8, zatem jest to implikacja odwrotna prawdziwa
LUB
Jeśli liczba jest podzielna przez 2 to może ~~> nie być podzielna przez 8
P2~~>~P8 =1 bo 2,4,6…
1 0 =1
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to operator implikacji odwrotnej ~>.
Tu po stronie P2 mamy „rzucanie monetą”, ale po stronie ~P2 mamy pewne wynikanie matematyczne.
… a jeśli liczba nie jest podzielna przez 2 ?
Prawo Kubusia:
P2~>P8 = ~P2=>~P8
czyli:
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8 =1 bo 1,3,5 … - oczywistość
0 0 =1
Jeśli liczba nie jest podzielna przez 2 to na pewno => jest podzielna przez 8
~P2=>P8 =0 - oczywistość wobec powyższego
0 1 =0
Doskonale widać tabele zero-jedynkową implikacji odwrotnej P2~>P8.
W kodowaniu tabeli zero-jedynkowej przyjęto logikę dodatnią:
P2=1, ~P2=0
P8=1, ~P8=0
Tu matematycy mogą przecierać oczy z trzech powodów:
1.
Pierwszy szok dla dzisiejszych matematyków:
Implikacja odwrotna ~> nie może istnieć bez operatora implikacji prostej =>, bo nie sposób wygenerować definicji zero-jedynkowej implikacji odwrotnej ~> bez operatora implikacji prostej => i odwrotnie.
2.
Drugi szok dla matematyków:
Implikacja prosta P8=>P2 to zupełnie co innego niż implikacja odwrotna P2~>P8, bo na mocy odpowiednich definicji mamy tu do czynienia z fundamentalnie innymi tabelami zero-jedynkowymi czyli:
P8=>P2 # P2~>P8
3.
… a to jest nokaut dzisiejszej matematyki:
Prawo kontrapozycji jest w implikacji fałszywe.
P8=>P2 # ~P2=>~P8
Dowód:
Na podstawie punktu 2 mamy:
P8=>P2 # P2~>P8
Dla prawej strony na podstawie prawa Kubusia mamy:
P2~>P8 = ~P2=>~P8
zatem:
P8=>P2 # ~P2=>~P8
CND
Jak z powyższego przykładu przejść do zapisów formalnych w implikacji ?
Bardzo prosto, możemy to zrobić dwoma sposobami.
Punkt odniesienia p=>q
Implikacja prosta i odwrotna, wersja ze sztywnym punktem odniesienia ustawionym na implikacji prostej p=>q.
Założenie:
p=>q - implikacja prosta prawdziwa, czyli spełniony warunek wystarczający między p i q
q~>p - implikacja odwrotna prawdziwa powstała po zamianie p i q, czyli spełniony warunek konieczny między q i p
Przykład:
A.
Jeśli liczba jest podzielna przez 8 to „musi” => być podzielna przez 2
P8=>P2
p=>q
Implikacja prosta prawdziwa bo P8 jest wystarczające dla P2
Po zamianie p i q przy sztywnym punkcie odniesienia ustalonym wyżej na p=>q mamy:
B.
Jeśli liczba jest podzielna przez 2 to „może” ~> być podzielna przez 8
P2~>P8
q~>p
Implikacja odwrotna prawdziwa bo P2 jest konieczne dla P8
Oczywiście na mocy definicji mamy:
P8=>P2 # P2~>P8
czyli:
p=>q # q~>p
bo operator => to zupełnie co innego niż operator ~>
Dla prawej strony korzystamy z prawa Kubusia:
q~>p = ~q=>~p
… i mamy dowód w zapisie ogólnym fałszywości prawa kontrapozycji w implikacji:
p=>q # ~q => ~p
Punkt odniesienia „Jeśli…to…”
Wyłącznie ta wersja jest zgodna z definicjami implikacji prostej p=>q i odwrotnej p~>q.
Implikacja prosta i odwrotna, wersja z punktem odniesienia ustawionym zawsze na „Jeśli…to…” czyli po „Jeśli” zawsze mamy p zaś po „to” zawsze jest q.
Ten sam przykład:
A.
Jeśli liczba jest podzielna przez 8 to „musi” => być podzielna przez 2
P8=>P2
p=>q
Implikacja prosta prawdziwa bo P8 jest wystarczające dla P2
Po zamianie p i q mamy:
B.
Jeśli liczba jest podzielna przez 2 to „może” ~> być podzielna przez 8
P2~>P8
p~>q
Implikacja odwrotna prawdziwa bo P2 jest konieczne dla P8
Zauważmy coś bardzo ważnego:
q~>p = P2~>P8 - zdanie B widziane z punktu odniesienia p=>q
p~>q = P2~>P8 - zdanie B widziane z punktu odniesienia „Jeśli…to…”
Prawe strony są identyczne zatem:
q~>p (punkt odniesienia p=>q) = p~>q (punkt odniesienia „Jeśli…to…”)
Oczywiście na mocy definicji dla punktu odniesienia „Jeśli…to…” mamy:
P8=>P2 # P2~>P8
czyli:
p=>q # p~>q
bo operator => to zupełnie co innego niż operator ~>
Wyłącznie ta wersja jest zgodna z definicjami:
p=>q = ~p+q - definicja implikacji prostej
p~>q = p+~q - definicja implikacji odwrotnej
W tym miejscu matematycy klasyczni będą protestować.
Zauważmy bowiem, że po obu stronach nierówności mamy różne znaczenie parametrów formalnych p i q.
Lewa strona:
p=P8, q=P2
Prawa strona:
p=P2, q=P8
Odpowiedź Kubusia:
Panowie, algebra Boole’a to algebra bramek logicznych (tu Kubuś jest ekspertem) mająca zero wspólnego z matematyką klasyczną (całki, ekstrema itp). Prawa algebry Boole’a nie muszą pokrywać się z prawami matematyki klasycznej.
Od strony matematycznej jest tu wszystko w porządku.
Definicja implikacji prostej:
p=>q
p musi być wystarczające dla q
W przełożeniu na nasz przykład mamy.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2
P8 jest wystarczające dla P2, zatem jest to implikacja prosta prawdziwa
p=>q - definicja implikacji prostej
czyli:
p=P8, q=P2
Definicja implikacji odwrotnej:
p~>q
p musi być warunkiem koniecznym dla q
Nasz przykład:
Jeśli liczba jest podzielna przez 2 to „może” ~> być podzielna przez 8
P2~>P8
p~>q
Implikacja odwrotna prawdziwa bo P2 jest konieczne dla P8
p~>q - definicja implikacji odwrotnej
czyli:
p=P2, q=P8
Jak widać, literki p i q na mocy odpowiednich definicji są dokładnie tam gdzie być powinny.
Oczywistym jest, że prawa kontrapozycji są poprawne w równoważności bo tu na mocy definicji mamy:
p=>q = q=>p = ~p=>~q = ~q=>~p
stąd prawo kontrapozycji:
p=>q = ~q=>~p
Twierdzenie Hipcia:
Prawa Kubusia są poprawne w implikacji i fałszywe w równoważności
Prawa kontrapozycji są poprawne w równoważności i fałszywe w implikacji
Dowód wyżej oraz na bramkach logicznych w pkt. 8.7.
Z twierdzenia Hipcia wynika iż:
1.
Jeśli cokolwiek jest implikacją to muszą być spełnione prawa Kubusia, czyli niezbędny jest zarówno operator implikacji prostej =>, jak i odwrotnej ~>
2.
Jeśli cokolwiek jest równoważnością, to zapominamy o prawach Kubusia i operatorze implikacji odwrotnej ~>. W równoważności poprawne jest prawo kontrapozycji, nie mające nic wspólnego z prawami Kubusia.
W podstawowej definicji równoważności:
p<=>q = (p=>q)*(~p=>~q)
chodzi wyłącznie o warunki wystarczające w stronę p=>q i ~p=>~q, to nie są implikacje (dowód w pkt.8.9).
Oczywiście poprawne definicje implikacji prostej => i odwrotnej ~> muszą działać w całym naszym Wszechświecie, czyli w matematyce oraz w świecie martwym i żywym, w szczególności doskonale obsługują wszelkie obietnice (implikacja prosta =>) i groźby (implikacja odwrotna ~>), tu nie może być żadnych wyjątków. Niżej dwa przykłady w formie skróconej ze świata martwego i żywego.
4.3.2 Implikacja w świecie martwym
Jeśli jutro będzie padać to na pewno będzie pochmurno
P=>CH =1
1 1 =1
Padanie deszczu jest warunkiem wystarczającym dla chmur, zatem jest to implikacja prosta prawdziwa.
P=>~CH =0
1 0 =0
Prawo Kubusia:
P=>CH = ~P~>~CH
czyli:
~P~>~CH =1
0 0 =1
LUB
~P~~>CH =1
0 1 =1
Doskonale widać wyżej zero-jedynkową definicję implikacji prostej P=>CH.
Tabelę zero-jedynkowa uzyskujemy po przyjęciu:
P=1, ~P=0
CH=1, ~CH=0
Po zamianie p i q lądujemy oczywiście w implikacji odwrotnej prawdziwej.
Jeśli jutro będzie pochmurno to może ~> padać
CH~>P =1
1 1 =1
Chmury sa warunkiem koniecznym dla deszczu, zatem jest to implikacja odwrotna prawdziwa
LUB
CH~~>~P =1
1 0 =1
Prawo Kubusia:
CH~>P = ~CH=>~P
czyli:
~CH=>~P =1
0 0 =1
~CH=>P=0
0 1 =0
Doskonale widać wyżej definicje zero-jedynkową implikacji odwrotnej CH~>P.
Tabelę zero-jedynkowa uzyskujemy po przyjęciu:
CH=1, ~CH=0
P=1, ~P=0
Matematyczne szoki dla dzisiejszych matematyków to:
1.
Implikacja prosta => nie może istnieć bez operatora implikacji odwrotnej ~> i odwrotnie
2.
P=>CH # CH~>P
bo to dwie fundamentalnie inne tabele zero-jedynkowe
2.
Super-szok …
Fałszywe prawo kontrapozycji w implikacji:
P=>CH # ~CH=>~P
bo punkt 2 i prawo Kubusia:
CH~>P = ~CH=>~P
4.3.3 Implikacja w świecie żywym
Tym razem zaczniemy od implikacji odwrotnej ….
Jeśli zwierzę ma cztery łapy to może ~> być psem
4L~>P =1 bo pies.
1 1 =1
4L są konieczne aby być psem, zatem jest to implikacja odwrotna prawdziwa
LUB
Jeśli zwierzę ma cztery łapy to może ~~> nie być psem
4L~~>~P =1 bo koń …
1 0 =1
… a jeśli zwierzę nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
czyli:
Jeśli zwierzę nie ma czterech łap to na pewno => nie jest psem
~4L=>~P =1 - oczywistość (psy kalekie w logice pomijamy)
0 0 =1
Jeśli zwierzę nie ma czterech łap to na pewno => jest psem
~4L=>P =0
0 1 =0
Doskonale widać wyżej tabele zero-jedynkową implikacji odwrotnej 4L~>P.
Tabelę zero-jedynkową uzyskujemy po przyjęciu:
4L=1, ~4L=0
P=1, ~P=0
Po zamianie p i q prawdziwa implikacja odwrotna musi przejść w prawdziwa implikacje prostą.
Jeśli zwierzę jest psem to na pewno ma cztery łapy
P=>4L =1
1 1 =1
Bycie psem jest warunkiem wystarczającym aby mieć cztery łapy, zatem jest to implikacja prosta prawdziwa
P=>~4L=0
1 0 =0
Prawo Kubusia:
P=>4L = ~P~>~4L
czyli:
~P~>~4L =1
0 0 =1
LUB
~P~~>4L =1
0 1 =1
Doskonale widać tabele zero jedynkową implikacji prostej P=>4L.
Tabelę zero-jedynkową uzyskujemy po przyjęciu:
4L=1, ~4L=0
P=1, ~P=0
Matematyczne szoki:
1.
Implikacja odwrotna ~> nie może istnieć bez operatora implikacji prostej => i odwrotnie
2.
4L~>P # P=>4L
bo to dwie fundamentalnie inne tabele zero-jedynkowe
3.
Super-szok …
Prawo kontrapozycji jest fałszywe w implikacji czyli:
~4L=>~P # P=>4L
bo punkt 2 i prawo Kubusia:
4L~>P = ~4L=>~P
4.4 Lekcja symbolicznej algebry Boole’a, twierdzenie Misia
Z dedykacją dla Idioty
Idiota, to ekspert starej ery logiki z którym od zawsze Kubuś był na wojennej ścieżce …
Idioto proponuję zakopać topór wojenny. W ramach dobrych intencji, pokażę ci jak prosta jest symboliczna algebra Boole’a (algebra Kubusia).
rafal3006 napisał: | idiota napisał: |
co zrobić...
powiedziałem przyjaciołom, że jakbym to pojął niech mnie zastrzelą.
|
Co tu do pojmowania ?
Przecież to algebra Boole’a, matematyka ścisła w której prawa Kubusia, udowodnione przez Kubusia, Wuja i Uczy są świętością.
Jeśli jutro będzie pochmurno to może ~> padać
CH~>P
Chmury są warunkiem koniecznym deszczu, zatem jest to implikacja odwrotna prawdziwa
Prawo Kubusia:
CH~>P = ~CH=>~P
czyli:
Jeśli jutro nie będzie pochmurno to na pewno => nie będzie padać
~CH =>~P
|
Na mocy prawa Kubusia mamy wyżej dwie implikacje prawdziwe, odwrotną i prostą. Jeśli to są implikacje to muszą spełniać odpowiednie tabele zero-jedynkowe implikacji. Oczywiście zera i jedynki w symbolicznej algebrze Boole’a (algebrze Kubusia) mamy w głębokim poważaniu, czyli w czterech literach.
Implikacja odwrotna
Dla kodowania zero jedynkowego analizy symbolicznej przyjmujemy logikę dodatnią:
CH=1, ~CH=0
P=1, ~P=0
A.
Jeśli jutro będzie pochmurno to może ~> padać
CH~>P =1
1 1 =1
Chmury są warunkiem koniecznym deszczu, zatem jest to implikacja odwrotna prawdziwa
LUB
Jeśli jutro będzie pochmurno to może ~~> nie padać
CH~~>~P =1
1 0 =1
~~> zdanie prawdziwe na mocy naturalnego spójnika „może”, nie jest to implikacja
… a jeśli nie będzie pochmurno ?
Prawo Kubusia:
CH~>P = ~CH=>~P
czyli:
Jeśli jutro nie będzie pochmurno to na pewno => nie będzie padać
~CH=>~P =1
0 0 =1
albo…
Jeśli jutro nie będzie pochmurno to na pewno => będzie padać
~CH=>P =0 - twardy fałsz bo wyżej twarda prawda
0 1 =0
Czy szanowny Idiota widzi tabelę zero-jedynkową implikacji odwrotnej ?
Na pewno widać, zgadza się ?
Przeanalizujmy teraz drugą implikację:
~CH=>~P
Dla kodowania zero jedynkowego analizy symbolicznej przyjmujemy logikę dodatnią:
CH=1, ~CH=0
P=1, ~P=0
B.
Jeśli jutro nie będzie pochmurno to na pewno => nie będzie padać
~CH=>~P =1
0 0 =1
Brak chmur jest warunkiem wystarczającym aby nie padało, implikacja prosta prawdziwa
albo…
Jeśli jutro nie będzie pochmurno to na pewno => będzie padać
~CH=>P =0 - twardy fałsz bo wyżej twarda prawda
0 1 =0
… a jeśli będzie pochmurno ?
Prawo Kubusia:
~CH=>~P = CH~>P
Jeśli jutro będzie pochmurno to może ~> padać
CH~>P =1
1 1 =1
Chmury są warunkiem koniecznym deszczu, zatem jest to implikacja odwrotna prawdziwa
LUB
Jeśli jutro będzie pochmurno to może ~~> nie padać
CH~~>~P =1
1 0 =1
~~> zdanie prawdziwe na mocy naturalnego spójnika „może”, nie jest to implikacja
Jak widać wyżej w ogóle nic nie robiliśmy, poza przestawieniem dwóch pierwszych linii z dwoma ostatnimi. Oczywiście kolejność wypowiadania powyższych linii nie ma znaczenia, z określeniem prawdziwości dowolnego zdania nie będzie miało problemu nawet 5-cio letnie dziecko.
Zauważmy, że ostatnia analiza była bezcelowa na mocy prawa Kubusia:
~CH=>~P = CH~>P
Oczywiście to jedna i ta sama bramka implikacji odwrotnej CH~>P widziana z dwóch różnych punktów odniesienia.
Powyższy wzór możemy zinterpretować tak.
Twierdzenie Misia:
Implikacja prosta w logice ujemnej:
~CH=>~P - logika ujemna bo zanegowane P
na mocy prawa Kubusia jest równoważna implikacji odwrotnej w logice dodatniej:
CH~>P - logika dodatnia bo P nie jest zanegowane
Ostatnią interpretację można udowodnić tak.
Zdanie do analizy:
~CH=>~P - logika ujemna bo ~P
Tabela zero-jedynkowa implikacji prostej =>:
Kod: |
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Po podstawieniu:
p=1, ~p=0
q=1, ~q=0
otrzymujemy …
Tabela symboliczna definicji implikacji prostej =>:
Kod: |
p q =1
p ~q =0
~p ~q =1
~p p =1
|
W miejsce parametrów formalnych p i q podstawiamy:
p=~CH, q=~P
czyli mamy:
Kod: |
(~CH) (~P) =1
(~CH) ~(~P) =0
~(~CH) ~(~P) =1
~(~CH) (~P) =1
|
Opuszczamy nawiasy korzystając z prawa podwójnego przeczenia:
Kod: |
~CH ~P =1
~CH P =0
CH P =1
CH ~P =1
|
Oczywiście łatwo przejść z powrotem do tabeli operatorowej:
Kod: |
~CH =>~P =1
~CH => P =0
CH ~> P =1
CH~~>~P =1
|
Możemy dodatkowo zamienić dwie pierwsze linie z dwoma ostatnimi (niekoniecznie trzeba)
Kod: |
CH ~> P =1
CH~~>~P =1
~CH =>~P =1
~CH => P =0
|
Kodujemy tabele w logice dodatniej:
CH=1, ~CH=0
P=1, ~P=0
Tabela zero-jedynkowa:
Kod: |
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
… no i mamy tabele zero-jedynkową zdania A
CND
Kolejny dowód fałszywości prawa kontrapozycji w implikacji
Jak widać wyżej, w równaniu:
CH~>P = ~CH=>~P
mamy do czynienia z bramką logiczną implikacji odwrotnej zdefiniowaną tabelą zero-jedynkową:
Kod: |
Tabela A
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Oczywiście po zamianie p i q w implikacja odwrotna CH~>P przejdzie w prawdziwą implikacje prostą P=>CH.
Dla kodowania tabeli zero-jedynkowej przyjmujemy:
P=1, ~P=0
CH=1, ~CH=0
Analiza:
Jeśli jutro będzie padać to na pewno => będzie pochmurno
P=>CH =1
1 1 =1
Deszcz jest warunkiem wystarczającym dla istnienia chmur, zatem jest to implikacja prosta prawdziwa
oczywiście:
Jeśli jutro będzie padać to na pewno => nie będzie pochmurno
P=>~CH =0
1 0 =0
… a jeśli nie będzie padać ?
Prawo Kubusia:
P=>CH = ~P~>~CH
czyli:
Jeśli jutro nie będzie padać to może ~> nie być pochmurno
~P~>~CH =1
0 0 =1
LUB
Jeśli jutro nie będzie padać to może ~~> być pochmurno
~P~~>CH =1
0 1 =1
~~> - zdanie prawdziwe na mocy naturalnego „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna
Doskonale widać tabele zero-jedynkową implikacji prostej czyli:
P=>CH = ~P~>~CH
po obu stronach równania mamy do czynienia z bramka implikacji prostej zdefiniowaną tabela zero-jedynkową.
Kod: |
Tabela B
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Oczywiście na mocy definicji zero-jedynkowych zachodzi:
CH~>P # P=>CH
… bo to dwie fundamentalnie różne tabele zero-jedynkowe
Dla lewej strony stosujemy prawo Kubusia:
CH~>P = ~CH=>~P
… i mamy kolejny dowód fałszywości prawa kontrapozycji w implikacji !
~CH=>~P # P=>CH
Czy ktoś z matematyków ma tu najmniejsze wątpliwości ?
Mam nadzieje, że matematycy to wreszcie załapią, wtedy świat stanie się piękny i normalny, bez idiotyzmów KRZ w stylu:
Z fałszu może powstać prawda …
Jeśli pies jest różowy to krowa śpiewa w operze … itd…itp.
5.0 Od tabel zero-jedynkowych do definicji operatorowych
Człowiek zna tabele zero-jedynkowe implikacji prostej => i odwrotnej ~> od około 200 lat. Niestety, interpretacja tych tabel jest matematycznie fałszywa. Po odkryciu na SFINII właściwych znaczeń tabel zero-jedynkowych implikacji prostej => i odwrotnej ~> miejsce znanych człowiekowi definicji implikacji materialnej, logicznej, ścisłej etc. jest w grobowcu historii z napisem „relikt z epoki dinozaurów”.
5.1 Symboliczna i operatorowa definicja implikacji prostej
Definicja zero-jedynkowa implikacji prostej:
Kod: |
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Zero-jedynkowa definicja implikacji prostej to po prostu rozpisane wszystkie przypadki jakie mogą w przyszłości wystąpić. Najłatwiej to zrozumieć przechodząc na symboliczną definicję implikacji prostej.
Przyjmujemy:
p=1, ~p=0
q=1, ~q=0
Stąd symboliczna definicja implikacji prostej;
Kod: |
p q p=>q
p q =1
p ~q =0
~p ~q =1
~p q =1
|
Równanie algebry Boole’a dla powyższej tabeli najprościej tworzymy z drugiej linii sprowadzając wszystkie sygnały do jedynki:
p*~q = ~(p=>q)
czyli:
p=>q = ~(p*~q) = ~p+q - na podstawie prawa de’Morgana
Z pierwszych dwóch linii widać, że jeśli zajdzie p to „musi” zajść q bo druga linia jest twardym fałszem i nie ma prawa wystąpić czyli:
A: p=>q =1
B: p=>~q=0
Wynika z tego że p musi być wystarczające dla q, inaczej druga linia nie będzie twardym fałszem.
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” zajść q
p musi być wystarczające dla q
gdzie:
=> - operator implikacji prostej, spójnik „musi” => miedzy p i q ze spełnionym warunkiem wystarczającym.
Przykład:
Jeśli zwierzę jest psem to na pewno => ma cztery łapy
P=>4L=1
Bycie psem jest wystarczające dla czterech łap, implikacja prosta prawdziwa
Druga linia przybierze tu postać:
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L=0
Oczywisty fałsz bo wszystkie psy mają cztery łapy. Psy kalekie z inną ilością łap służą do obalania logiki, dlatego wywalamy je do kosza, mając świadomość że takie istnieją.
Ostatnie dwie linie tabeli mówią że:
Jeśli nie zajdzie p to może zajść ~q
C: ~p~>~q=1
gdzie:
~> - operator implikacji odwrotnej, spójnik „może” ~> między p i q ze spełnionym warunkiem koniecznym.
LUB
Jeśli zajdzie ~p to może zajść q
D: ~p~~>q=1
Przekładając na nasz przykład mamy:
Jeśli zwierzę nie jest psem to może ~> nie mieć czterech łap
~P~>~4L=1 bo kura
Nie bycie psem jest warunkiem koniecznym, aby nie mieć czterech łap, implikacja odwrotna prawdziwa.
LUB
Jeśli zwierzę nie jest psem to może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń
To zdanie jest prawdziwe na mocy naturalnego spójnika „może” ~~> (wystarczy jedna prawda), nie jest to implikacja odwrotna.
Operatorowa definicja implikacji prostej:
A: p=>q =1
B: p=>~q=0
… a co będzie jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q= ~p~>~q
C: ~p~>~q=1
D: ~p~~>q=1
Ostatnie zdanie jest prawdziwe na mocy naturalnego spójnika „może” ~~> (wystarczy jedna prawda)
Zauważmy, że implikacja odwrotna ~p~>q w ostatniej linii jest wykluczona na podstawie prawa Kubusia:
B: p=>~q = D: ~p~>q =0
Zdanie B jest oczywistym fałszem, zatem D również musi być fałszem.
Ostatnie zdanie jest prawdziwe na mocy tego równania:
(~p~>q) + (~p~~>q) = 0 + 1 =1
Sens implikacji prostej:
Po nieskończonej ilości losowań puste będzie wyłącznie pudełko p=>~q=0, pozostałe będą pełne, stąd taki a nie inny rozkład zer i jedynek w definicji implikacji. Najważniejsze w implikacji prostej nie jest puste pudełko, ale gwarancja matematyczna p=>q=1.
5.2 Symboliczna i operatorowa definicja implikacji odwrotnej
Definicja zero-jedynkowa implikacji odwrotnej:
Kod: |
p q p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Przyjmujemy:
p=1, ~p=0
q=1, ~q=0
Stąd symboliczna definicja implikacji odwrotnej;
Kod: |
p q p~>q
p q =1
p ~q =1
~p ~q =1
~p q =0
|
Równanie algebry Boole’a dla powyższej tabeli najprościej tworzymy z ostatniej linii sprowadzając wszystkie sygnały do jedynki:
~p*q = ~(p~>q)
czyli:
p~>q = ~(~p*q) = p+~q - na podstawie prawa de’Morgana
Z pierwszych dwóch linii widać, że jeśli zajdzie p to „może” zajść q
A: p~>q=1
LUB
Jeśli zajdzie p to może zajść ~q
B: p~~>~q=1
Z powyższego wynika że p musi być warunkiem koniecznym dla q inaczej pierwsza linia będzie twardym fałszem, implikacja odwrotna będzie fałszywa.
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to może zajść q
p musi być konieczne dla q
gdzie:
~> - operator implikacji odwrotnej, spójnik „może” ~> między p i q ze spełnionym warunkiem koniecznym.
Przykład:
Jeśli zwierzę ma cztery łapy to może ~> być psem
4L~>P=1 bo pies
Cztery łapy są konieczne dla psa, implikacja odwrotna prawdziwa
LUB
Jeśli zwierzę ma cztery łapy to może nie być psem
4L~~>~P=1 bo słoń
… ale
Jeśli zwierze ma skrzydła to może być psem
S~>P=0
Skrzydła nie są konieczne dla psa, implikacja oczywiście fałszywa
Zauważmy, że jeśli p jest konieczne dla q (pierwsza linia) to zajście ~p wymusza zajście ~q. Stąd w sposób naturalny otrzymaliśmy dowód prawa Kubusia.
p~>q = ~p=>~q=1
C: ~p=>~q
Ostatnia linia wymusza twardy fałsz w linii D:
D: ~p=>q=0
Wracając do naszego przykładu … co będzie jeśli zwierzę nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
Jeśli zwierzę nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1 bo kura
Jeśli zwierzę nie ma czterech łap to na pewno => jest psem
~4L=>P=0
Operatorowa definicja implikacji odwrotnej:
A: p~>q =1
LUB
B: p~~>~q =1
… a co będzie jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q= ~p=>~q
C: ~p=>~q=1
D: ~p=>q=0
Linia B: p~~>~q=1 jest prawdziwa na mocy naturalnego spójnika „może” ~~> (wystarczy jedna prawda)
Zauważmy, że implikacja odwrotna w linii B jest wykluczona na mocy prawa Kubusia:
B: p~>~q = D: ~p=>q=0
Zdanie D jest oczywistym fałszem, zatem B: p~>~q nie może być prawdziwe.
Zdanie B jest prawdziwe na mocy tego równania:
(p~>~q) + (p~~>~q) = 0 + 1 =1
Sens implikacji odwrotnej:
Po nieskończonej ilości losowań puste będzie wyłącznie pudełko ~p=>q=0, pozostałe będą pełne, stąd taki a nie inny rozkład zer i jedynek w definicji implikacji. Najważniejsze w implikacji odwrotnej nie jest puste pudełko, ale gwarancja matematyczna ~p=>~q=1.
6.0 Kubuś na tropie implikacji odwrotnej
Udajmy się do przedszkola, aby upewnić się czy dzieciaki znają algebrę Kubusia. Zadaniem dzieci będzie określenie które z wypowiedzianych zdań jest prawdziwe a które fałszywe. Zdania oczywiście będą tendencyjne, bo wymawia je Kubuś. Na początek Kubuś postanowił sprawdzić jak reagują dzieci na implikację odwrotną. Poprosił je, aby przy określaniu czy zdanie jest prawdziwe/fałszywe brały pod uwagę wyłącznie psy zdrowe, z czterema łapami.
Kubuś:
A1:
Jeśli zwierzę ma cztery łapy to może być psem
4L~>P = 1 - zdanie prawdziwe bo pies, tu żaden przedszkolak nie miał wątpliwości.
Implikacja odwrotna prawdziwa bo cztery łapy są konieczne dla psa
LUB
A2:
Jeśli zwierzę ma cztery łapy to może nie być psem
4L~~>~P = 1 - zdanie prawdziwe bo słoń, koń, kot, lis, hipopotam …. przekrzykiwały się dzieci
Kubuś:
… a jeśli zwierzę nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
Dzieciaki:
A3:
Jeśli zwierzę nie ma czterech łap to na pewno nie jest psem
~4L=>~P =1 - zdanie oczywiście prawdziwe
Kubuś:
A4:
Jeśli zwierzę nie ma czterech łap to na pewno jest psem
~4L=>P = 0 - kłamstwo, fałsz, bo każdy pies ma cztery łapy … zgodnym chórem krzyknęły dzieci
Hmm … pomyślał Kubuś, dzieciaki doskonale znają matematyczną wersję implikacji odwrotnej, aby upewnić się czy to prawda, zaczął wypowiadać powyższe zdania w sposób losowy.
Dzieci ani razu nie popełniły błędu !
Zauważmy, że w zdaniu A1 cztery łapy są konieczne aby być psem, zatem jeśli zwierzę nie ma czterech łap to na pewno nie jest psem. Mamy tu bezpośredni dowód prawa Kubusia.
A1: 4L~>P= A3: ~4L=>~P
Zdanie A2 jest prawdziwe na mocy naturalnego spójnika „może” ~~> (wystarczy jedna prawda) ale na pewno nie jest implikacją.
Dlaczego ?
Wyrocznią są tu prawa Kubusia, prawdziwe wyłącznie w implikacji (fałszywe w równoważności).
Dowód nie wprost.
Załóżmy, że zdanie A2: 4L~>~P jest implikacją odwrotną prawdziwą.
Prawo Kubusia:
A2: 4L~>~P = A4: ~4L=>P
czyli:
Jeśli zwierzę nie ma czterech łap to na pewno jest psem
A4: ~4L=>P
Zdanie A4 jest na pewno fałszywe, zatem wobec zachodzącej tożsamości implikacja A2 musi być także fałszywa, czyli nie zachodzi tu warunek konieczny.
Prawdziwość zdania A2 opisuje wzór:
(4L~>~P) +( 4L~~>~P) = 0+1=1
Implikacja odwrotna (4L~>~P) na mocy prawa Kubusia jest tu oczywiście fałszywa, ale zdanie A2 jest prawdziwe na mocy naturalnego spójnika „może” ~~> (wystarczy jedna prawda, tu np. słoń).
6.1 Operatorowa definicja implikacji odwrotnej
Zapiszmy teraz powyższe zdania wyłącznie w postaci operatorowej, czyli przy pomocy operatorów „musi” (=>) i „może” (~> lub ~~>)
Kod: |
4L P Y=4L~>P ~Y=~(4L~>P)
4L ~> P = 1 0
4L~~>~P = 1 0
~4L=> ~P = 1 0
~4L => P = 0 1
|
gdzie:
1 - zdanie prawdziwe
0 - zdanie fałszywe
W matematyce nie operujemy na konkretnych przykładach, lecz na zapisach formalnych. Powszechnie przyjętym standardem są w implikacji literki p i q.
Jeśli p to q
p - poprzednik
q - następnik
Przepiszmy zatem powyższą tabelę podstawiając:
4L=p, P=q
Operatorowa definicja implikacji odwrotnej:
Kod: |
p q Y=p~>q ~Y=~(p~>q)
p ~> q = 1 0
p~~>~q = 1 0
~p=> ~q = 1 0
~p => q = 0 1
|
Prawo Kubusia:
p~>q = ~p=>~q
gdzie:
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
Zauważmy, że w implikacji odwrotnej p musi być konieczne dla q, inaczej pierwsza linia definicji operatorowej jest twardym fałszem, zdanie na pewno nie jest implikacją odwrotną.
Przykład:
Jeśli zwierzę ma skrzydła to może być psem
S~>P=0
Oczywisty twardy fałsz bo skrzydła nie są warunkiem koniecznym dla psa.
Po opuszczeniu operatorów w powyższej definicji otrzymujemy symboliczną definicję implikacji odwrotnej .
Symboliczna definicja implikacji odwrotnej:
Kod: |
p q Y=p~>q ~Y=~(p~>q)
p q = 1 0
p ~q = 1 0
~p ~q = 1 0
~p q = 0 1
|
Najprostszą definicję implikacji odwrotnej w równaniu algebry Boole’a otrzymujemy z ostatniej linii tabeli.
Wystąpi fałsz (~Y=1) wtedy i tylko wtedy gdy zajdzie ~p i zajdzie q.
~Y= ~p*q
Kiedy wystąpi prawda ?
Przechodzimy do logiki przeciwnej metodą przedszkolaka negując zmienne i wymieniając operator AND(*) na OR(+).
Y=p+~q
stąd:
Definicja implikacji odwrotnej w równaniu algebry Boole’a:
Y= p~>q = p+~q = ~(~p*q) - na podstawie prawa de’Morgana
Wystąpi prawda (Y=1) wtedy i tylko wtedy gdy nie zdarzy się ~(…), że zajdzie ~p i zajdzie q.
6.2 Zero-jedynkowa definicja implikacji odwrotnej
Zero jedynkowa definicja implikacji odwrotnej to w dniu dzisiejszym zabytek klasy zerowej. Wszyscy ludzie na ziemi od przedszkolaka po profesora posługują się biegle operatorową definicją implikacji odwrotnej. Nie ma potrzeby przechodzenia do zero-jedynkowej definicji implikacji odwrotnej.
Operatorowa definicja implikacji odwrotnej:
Kod: |
p q Y=p~>q ~Y=~(p~>q)
p ~> q = 1 0
p~~>~q = 1 0
~p=> ~q = 1 0
~p => q = 0 1
|
Prawo Kubusia:
p~>q = ~p=>~q
Zauważmy, że prawo Kubusia obowiązuje w obrębie samej definicji implikacji, zatem implikacja odwrotna to w pierwszej części rzucanie monetą p~>q, zaś w drugiej części pewne wynikanie ~p=>~q.
Zero-jedynkową definicję implikacji odwrotnej otrzymujemy opuszczając operatory oraz przyjmując:
p=1, ~p=0
q=1, ~q=0
Zero-jedynkowa definicja implikacji odwrotnej:
Kod: |
p q Y=p~>q ~Y=~(p~>q)
1 1 1 0
1 0 1 0
0 0 1 0
0 1 0 1
|
Najprostsze równanie algebry Boole’a zapiszemy dla ostatniej linii bo tu w wyniku mamy samotne zero (Y=0).
Y=0 <=> p=0 i q=1
Przejście z takiego zapisu do równania algebry Boole’a możemy uzyskać na dwa sposoby.
Sposób 1
Definicja iloczynu logicznego:
Iloczyn logiczny n-zmiennych binarnych równy jest jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Mamy:
Y=0 <=> p=0 i q=1
czyli:
Y=0, ~Y=1
p=0, ~p=1
q=1
Sprowadzamy wszystkie sygnały do jedynki i stosujemy definicję iloczynu logicznego.
~Y=~p*q
Przechodzimy do logiki przeciwnej metodą przedszkolaka negując zmienne i wymieniając operatory na przeciwne
Y = p+~q
Sposób 2
Definicja sumy logicznej:
Suma logiczna n-zmiennych binarnych jest równa zeru wtedy i tylko wtedy gdy wszystkie zmienne są równe zeru.
Mamy:
Y=0 <=> p=0 i q=1
czyli:
Y=0
p=0
q=1,~q=0
Sprowadzamy wszystkie sygnały do zera i stosujemy definicję sumy logicznej.
Y=p+~q
Jak widać, w tym przypadku końcowe równanie implikacji odwrotnej mamy natychmiast.
Definicja implikacji odwrotnej w równaniu algebry Boole’a:
Y = p~>q = p+~q = ~(~p*q) - na podstawie prawa de’Morgana
Powyżej ułożyliśmy równanie wyłącznie dla ostatniej linii tabeli gdzie w wyniku było samotne zero, wszelkie pozostałe linie, zgodnie z prawem Prosiaczka muszą być jedynkami niezależnie od chciejstwa człowieka … bo to jest matematyka przecież.
Prawo Prosiaczka:
Równania algebry Boole’a dla dowolnej tabeli zero-jedynkowej n-elementowej tworzymy na podstawie linii z tą samą wartością logiczną w wyniku. Wszelkie nie opisane równaniami linie przyjmą wartości przeciwne do linii opisanych.
Definicja zero-jedynkowa implikacji odwrotnej przybierze zatem postać końcową.
Zero-jedynkowa definicja implikacji odwrotnej:
Kod: |
p q Y=p~>q=p+~q=~(~p*q) ~Y=~(p~>q)=~[~(~p*q)]=~p*q
1 1 1 0
1 0 1 0
0 0 1 0
0 1 0 1
|
Wystąpi prawda (Y=1) jeśli nie zdarzy się ~(…), że zajdzie ~p i q
Wystąpi fałsz (~Y=1) jeśli zajdzie ~p i q
6.3 Gwarancja matematyczna w implikacji odwrotnej
Istotą implikacji jest gwarancja matematyczna. Poza gwarancją wszystko może się zdarzyć czyli mamy rzucanie monetą.
Gwarancją w implikacji odwrotnej jest wynikająca z prawa Kubusia implikacja prosta:
Y=p~>q = ~p=>~q
Gwarancja:
Jeśli nie zajdzie p to na pewno nie zajdzie q
~p=>~q
Przykład:
Jeśli zwierzę ma cztery łapy to może być psem
Y=4L~>P
Gwarancja:
Y=4L~>P = ~4L=>~P - prawo Kubusia
G1:
Jeśli zwierzę nie ma czterech łap to na pewno => nie jest psem
Y=~4L=>~P
Gwarancja dotyczy zwierząt które nie mają czterech łap, te na pewno nie są psami, poza tą gwarancją wszystko może się zdarzyć czyli jeśli zwierzę ma cztery łapy to może być psem (tu pies), lub nie być psem (np. słoń) czyli mamy tu rzucanie monetą.
Gwarancję równoważną otrzymujemy z definicji implikacji odwrotnej zapisanej w równaniu algebry Boole’a.
Definicja implikacji odwrotnej:
Y=p~>q = p+~q = ~(~p*q) - na podstawie prawa de’Morgana
stąd:
Y=4L~>P = ~(~4L*P)
czyli:
G2:
Nie może się zdarzyć ~(…), że zwierzę nie ma czterech łap i jest psem
Y=~(~4L*P)
Oczywiście gwarantowane zwierzaki to kura, mrówka, stonoga, wąż … - te na pewno nie są psami.
… a kiedy wystąpi fałsz ?
Negujemy powyższe równanie dwustronnie:
~Y=~4L*P
Wystąpi fałsz (~Y) jeśli zwierzę nie będzie miało czterech łap i będzie psem.
Zauważmy coś bardzo ważnego. Człowiek mając do wybory dwie równoważne gwarancje G1 i G2 praktycznie na 100% zawsze wybierze G1 bo ta jest zdecydowanie bardziej klarowna.
Wniosek:
W naturalnym języku mówionym człowiek posługuje się przede wszystkim operatorową definicją implikacji odwrotnej.
Z definicji równoważnej, zapisanej w równaniu algebry Boole’a:
p~>q = ~p=>~q = ~(~p*q)
w praktyce nikt nie korzysta, co nie oznacza że przedszkolak miałby tu jakiekolwiek kłopoty.
Jaś:
G1:
Jeśli zwierzę nie ma czterech łap to na pewno => nie jest psem
Y=~4L=>~P
Kubuś:
… a czy może się zdarzyć że zwierzę nie ma czterech łap i jest psem ?
p~>q = ~p=>~q = p+~q = ~(~p*q) - na podstawie prawa Kubusia i definicji implikacji odwrotnej
stąd:
~4L=>~P = ~(~4L*P)
Jaś:
Nie może się zdarzyć, że zwierzę nie ma czterech łap i jest psem
~(~4L*P)
Zauważmy, że przeanalizowaliśmy implikację odwrotną:
Jeśli zwierzę ma cztery łapy to może być psem
4L~>P
na wszelkie możliwe sposoby wyłącznie w symbolicznej algebrze Kubusia nie mając bezpośredniej styczności z kodem maszynowym czyli zerami i jedynkami po stronie p i q.
7.0 Kubuś na tropie implikacji prostej
Dzieci w przedszkolu są doskonałym testerem dowolnej logiki roszczącej sobie miano matematycznego opisu języka mówionego. Nowa, nieznana człowiekowi definicja implikacji odwrotnej ~> przeszła taki test bez najmniejszego problemu. Kubuś postanowił sprawdzić czy również nowa definicja implikacji prostej => przejdzie „test przedszkolaka”.
Druga wizyta Kubusia w przedszkolu.
Drogie dzieci, będę wypowiadał różne zdania o piesku i jego czterech łapach. Waszym zadaniem będzie rozstrzygnięcie czy zdanie jest prawdziwe/fałszywe. Proszę Was, abyście uwzględniali wyłącznie pieski zdrowe które mają cztery łapy.
B1:
Jeśli zwierzę jest psem to ma cztery łapy
P=>4L=1
Zdanie prawdziwe, zgodnym chórem krzyknęły dzieci, bo każdy pies ma cztery łapy.
Implikacja prosta prawdziwa bo bycie psem jest wystarczające, aby mieć cztery łapy.
B2:
Jeśli zwierzę jest psem to nie ma czterech łap
P=>~4L=0
Fałsz, kłamstwo, bo każdy pies ma cztery łapy, żaden przedszkolak nie miał tu wątpliwości
Jaś:
… a jeśli zwierzę nie jest psem ?
Prawo Kubusia:
P=>4L = ~P~>~4L
Kubuś:
B3:
Jeśli zwierzę nie jest psem to może nie mieć czterech łap
~P~>~4L=1
Prawda czy fałsz ?
Dzieci:
Prawda bo mrówka, stonoga, kura, wąż ….
lub
B4:
Jeśli zwierzę nie jest psem to może mieć cztery łapy
~P~~>4L=1
Prawda bo koń, słoń, wilk, hipopotam … przekrzykiwały się dzieci
Na wszelki wypadek by upewnić się czy nowa teoria matematyczna jest prawdziwa Kubuś zaczął wypowiadać powyższe zdania w sposób losowy.
Dzieci nie pomyliły się ani razu !
Nie ma zatem wątpliwości, symboliczna algebra Kubusia przeszła „test przedszkolaka” pomyślnie.
Zauważmy, że zdanie B4 nie może być implikacją odwrotną.
Dlaczego ?
Najprostszą wyrocznią jest tu oczywiście prawo Kubusia.
Dowód nie wprost.
Załóżmy że B4 jest implikacją odwrotną, wtedy musi być spełnione prawo Kubusia:
B4: ~P~>4L = B2: P=>~4L
Prawa strona tożsamości:
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L=0
Oczywisty fałsz, zatem fałszywa musi być tez implikacja po lewej stronie czyli:
B4: ~P~>4L=0
Prawdziwość zdania B4 określa wzór:
(~P~>4L)+(~P~~>4L) = 0+1 =1
gdzie:
~~> - naturalny spójnik „może”, wystarczy jedna prawda (tu np. koń), na pewno nie jest to implikacja odwrotna.
7.1 Operatorowa definicja implikacji prostej
Przepiszmy powyższy przykład wyłącznie w postaci operatorowej.
Kod: |
P 4L Y=(P=>4L) ~Y=~(P=>4L)
B1: P=> 4L = 1 0
B2: P=>~4L = 0 1
B3:~P~>~4L = 1 0
B4:~p~~>4L = 1 0
|
Prawo Kubusia:
P=>4L = ~P~>~4L
Oczywiście w matematyce nie operujemy na konkretnym przykładzie lecz na parametrach formalnych którymi w implikacji są literki p i q.
Podstawiamy zatem:
P=p i 4L=q
i otrzymujemy operatorową definicję implikacji prostej.
Operatorowa definicja implikacji prostej:
Kod: |
p q = Y=(p=>q) ~Y=~(p=>q)
p=> q = 1 0
p=>~q = 0 1
~p~>~q = 1 0
~p~~>q = 1 0
|
Prawo Kubusia:
p=>q = ~p~>~q
gdzie:
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Po opuszczeniu operatorów w powyższej definicji otrzymujemy symboliczną definicję implikacji prostej.
Symboliczna definicja implikacji prostej:
Kod: |
p q = Y=(p=>q) ~Y=~(p=>q)
p q = 1 0
p ~q = 0 1
~p ~q = 1 0
~p q = 1 0
|
Stąd dla drugiej linii zapisujemy najprostsze równanie algebry Boole’a.
Wystąpi fałsz (~Y=1) wtedy i tylko wtedy gdy zajdzie p i ~q
czyli:
~Y=p*~q
Przechodzimy do logiki przeciwnej metodą przedszkolaka negując zmienne i wymieniając operator AND(*) na OR(+):
Y=~p+q
stąd:
Definicja implikacji prostej w równaniu algebry Boole’a
Y = p=>q = ~p+q = ~(p*~q) - na podstawie prawa de’Morgana
7.2 Zero-jedynkowa definicja implikacji prostej
Operatorowa definicja implikacji prostej:
Kod: |
p q = Y=(p=>q) ~Y=~(p=>q)
p=> q = 1 0
p=>~q = 0 1
~p~>~q = 1 0
~p~~>q = 1 0
|
Prawo Kubusia:
p=>q = ~p~>~q
Zauważmy, że prawo Kubusia obowiązuje w obrębie samej definicji implikacji, zatem implikacja prosta to w pierwszej części pewne wynikanie p=>q, natomiast w drugiej części to najzwyklejsze rzucanie monetą ~p~>~q.
Po opuszczeniu operatorów w operatorowej definicji implikacji prostej i przyjęciu:
p=1, ~p=0
q=1, ~q=0
otrzymujemy …
Zero-jedynkowa definicja implikacji odwrotnej:
Kod: |
p q Y=(p=>q)=~p+q=~(p*~q) ~Y=~(p=>q)=~[~(p*~q)]=p*~q
1 1 1 0
1 0 0 1
0 0 1 0
0 1 1 0
|
Wystąpi prawda (Y=1) jeśli nie zdarzy się ~(…), że zajdzie p i ~q
Wystąpi fałsz (~Y=1) jeśli zajdzie p i ~q
7.3 Gwarancja w implikacji prostej
Na mocy definicji gwarancją jest sama definicja implikacji prostej ….
G1:
Jeśli zwierzę jest psem to na pewno => ma cztery łapy
P=>4L
Gwarantowany zwierzak to pies, który na pewno ma cztery łapy … poza tym wszystko może się zdarzyć czyli jeśli zwierzę nie jest psem to może nie mieć czterech łap (np. mrówka) lub jeśli zwierzę nie jest psem to może mieć cztery łapy (np. słoń).
Równoważną gwarancję, lecz w praktyce nigdy nie używaną mamy z równań algebry Boole’a.
Definicja implikacji prostej w równaniu algebry Boole’a.
Y = p=>q = ~p~>~q =~p+q = ~(p*~q) - na podstawie prawa de’Morgana
stąd:
P=>4L = ~P~>~4L = ~(P*~4L)
czyli:
G2:
Nie może się zdarzyć ~(…), że zwierzę jest psem i nie ma czterech łap
~(P*~4L)
Gwarantowany zwierzak to pies, poza tym wszystko może się zdarzyć.
Oczywiście nie oznacza to że przedszkolak będzie miał jakiekolwiek problemy z wypowiedzeniem gwarancji G2 … jeśli się go do tego zmusi.
Jaś:
Jeśli zwierze jest psem to na pewno ma cztery łapy
P=>4L
Kubuś:
… a czy może się zdarzyć że zwierze jest psem i nie ma czterech łap ?
P=>4L = ~(P*~4L) - na mocy definicji implikacji prostej
Jaś:
Nie może się zdarzyć ~(…), że zwierzę jest psem i nie ma czterech łap.
Ciąg dalszy na nastepnej stronie …
Ostatnio zmieniony przez rafal3006 dnia Pon 8:59, 07 Wrz 2009, w całości zmieniany 100 razy
|
|
Powrót do góry |
|
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35368
Przeczytał: 20 tematów
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Nie 20:43, 23 Sie 2009 Temat postu: |
|
|
8.0 Fundamenty algebry Boole’a
Matematycznym fundamentem algebry Boole’a jest definicja iloczynu kartezjańskiego i pojęcie funkcji.
8.1 Iloczyn kartezjański i pojęcie funkcji
W drugiej klasie szkoły podstawowej Pani na kartkówce zadała uczniom napisanie tabliczki mnożenia do 100. Wszystkie dzieci zrobiły to w sposób uporządkowany, łatwy do sprawdzenia. Jedynie dowcipny Jaś oddał kartkę pozornie bez sensu, bo poszczególne działania poustawiane były w sposób losowy, taki groch z kapustą.
Jak sprawdzić czy Jaś wykonał poprawnie zadanie ?
Oczywiście należy wykreślać po kolei jedno działanie z kartki uporządkowanej, odszukać identyczne w Jasiowym bałaganie i też je skreślić. Jeśli na końcu okaże się że Jaś zapisał wszystkie działania poprawnie i żadnego nie brakuje to Jaś wykonał zadanie poprawnie, powinien dostać 6 za fajny dowcip.
Ogólnie na obu kartkach z tabliczką mnożenia może być dowolny bałagan byleby zawierały wszystkie mnożenia do 100, co wynika z definicji iloczynu kartezjańskiego i pojęcia funkcji. Zobaczmy to na przykładzie budując tabelę mnożenia do dziewięciu.
8.2 Funkcja iloczynu algebraicznego
Iloczynem kartezjańskim zbiorów A = {1, 2, 3} i B = {1, 2, 3} jest zbiór C = AxB składający się z par liczb (a,b), gdzie a jest liczbą ze zbioru A, zaś b jest liczbą ze zbioru B. Innymi słowy, zbiór C wygląda tak: C = {(1,1), (1,2), (1,3), (2,1), (2,2), (2,3), (3,1), (3,2), (3,3)}. Wobec tego zadanie, jakie otrzymały dzieci, polegało na tym, żeby każdemu elementowi iloczynu kartezjańskiego zbiorów A i B przyporządkować liczbę całkowitą równą iloczynowi algebraicznemu liczb zawartych w tym elemencie.
Oznaczmy:
* - matematyczny operator iloczynu algebraicznego, funkcja mnożenia algebraicznego (nie mylić z iloczynem logicznym AND !)
Kod: |
a b a*b
1*1 =1
1*1 =2
1*3 =3
2*1 =2
2*2 =4
2*3 =6
3*1 =3
3*2 =6
3*3 =9 |
Jest oczywistym, że linie można dowolnie poprzestawiać i dalej będzie to tabela mnożenia do 9 czyli znajdziemy w niej wynik dowolnego mnożenia.
Pary liczb po lewej stronie znaku „=” tworzą zbiór będący iloczynem kartezjańskim dwóch zbiorów liczb, z których każdy zawiera liczby od 1 do 3, zaś po prawej stronie znaku „=” mamy liczby ze zbioru liczb od 1 do 9, stanowiące wynik odwzorowania tego iloczynu kartezjańskiego (czyli zbioru) w zbiór liczb całkowitych od 1 do 9. Jako ciekawostkę można zauważyć, że niektóre liczby w wyniku pojawiają się tylko jeden raz (1,4,9), niektóre pojawiają się dwukrotnie (2,3,6), a niektóre nie pojawiają się w ogóle (np. liczba 5,7,8). Każdej parze liczb z lewej strony „=” odpowiada jednak tylko jedna liczba z prawej strony „=” (każde mnożenie algebraiczne ma tylko jeden prawidłowy wynik) - takie jednoznaczne odwzorowanie jednego zbioru w drugi zbiór nazywa się funkcją.
Zauważmy, że funkcja iloczynu algebraicznego „*” jest przemienna tzn. można zamieniać argumenty i wynik nie ulegnie zmianie.
a*b = b*a
8.3 Funkcja iloczynu logicznego AND(*)
Weźmy teraz algebrę Boole’a gdzie znane są wyłącznie cyfry 0 i 1. Mamy tu dwa zbiory A=(0,1) i B=(0,1) bo inne cyfry są nielegalne. Iloczyn kartezjański tych zbiorów to C={(0,0), (0,1), (1,0), (1,1)}.
Oczywiście pary cyfr ze zbioru C można dowolnie przestawiać.
Definicja iloczynu logicznego (funkcja logiczna):
Iloczyn logiczny jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden
Tabela zero-jedynkowa iloczynu logicznego:
Kod: |
Tabela A
p q p*q
1 1 =1
1 0 =0
0 0 =0
0 1 =0 |
gdzie:
* - operator iloczynu logicznego AND(*), funkcja logiczna.
W iloczynie logicznym zachodzi przemienność argumentów
Czyli:
p*q=q*p
Dowód formalny:
Zamieniamy p i q miejscami.
Kod: |
Tabela B
q p q*p
1 1 =1
0 1 =0
0 0 =0
1 0 =0 |
Identyczność kolumn wynikowych tabel A i B jest dowodem przemienności iloczynu logicznego:
p*q = q*p
8.4 Algebra Boole’a i prawo przemienności
Wyżej udowodniliśmy, iż operator iloczynu logicznego AND(*) jest przemienny. Sprawdźmy teraz pozostałe kluczowe operatory (pkt.1.3) czyli te, które człowiek używa w naturalnym języku mówionym.
Kod: |
p q p+q q+p p=>q q=>p p~>q q~>p p<=>q q<=>p
1 1 1 1 1 1 1 1 1 1
1 0 1 1 0 1 1 0 0 0
0 0 0 0 1 1 1 1 1 1
0 1 1 1 1 0 0 1 0 0
|
p=>q=0 <=> p=1 i q=0
p~>q=0 <=> p=0 i q=1
Doskonale widać, że operatory OR(+) i <=> są przemienne, natomiast operatory implikacji nie są przemienne bo kolumny wynikowe są różne:
p=>q # q=>p
p~>q # q~>p
Oczywistym jest, że implikacja jest implikacją prawdziwą wtedy i tylko wtedy gdy spełnia odpowiednią tabelę zero-jedynkową.
Wynika z tego że:
Jeśli p=>q=1 to q=>p=0
Jeśli p~>q=1 to q~>p=0
… bo to jest algebra Boole’a.
p=>q = ~p+q - definicja implikacji prostej
p~>q = p+~q - definicja implikacji odwrotnej
Brak przemienności argumentów w implikacji przenosi się oczywiście na brak przemienności implikacyjnej sumy logicznej wynikającej z odpowiednich definicji.
p=>q = ~p+q # q+~p = q~>p
p~>q = p+~q # ~q+p = q=>p
8.5 Prawa Kubusia
Jako pierwszy prawa Kubusia zapisał i udowodnił metodą zero-jedynkową Kubuś po wielomiesięcznych zmaganiach z matematyczną obsługą wszelkich gróźb i obietnic. Właśnie w tym obszarze po raz pierwszy prawa Kubusia zaczęły fenomenalnie działać. To był jednak dopiero początek wojny o całkowite rozszyfrowanie implikacji.
Dowód prawa Kubusia metoda zero-jedynkową.
Definicja implikacji prostej:
Kod: |
p q p=>q
1 1 1
1 0 0
0 0 1
0 1 1
|
p=>q=0 wtedy i tylko wtedy gdy p=1 i q=0
Definicja implikacji odwrotnej:
Kod: |
p q p~>q
1 1 1
1 0 1
0 0 1
0 1 0
|
p~>q=0 wtedy i tylko wtedy gdy p=0 i q=1
Prawo Kubusia:
p=>q = ~p~>~q - prawo zamiany implikacji prostej => na równoważną implikację odwrotną ~>.
Dowód metodą zero-jedynkową:
Kod: |
p q p=>q ~p ~q ~p~>~q
1 1 1 0 0 1
1 0 0 0 1 0
0 0 1 1 1 1
0 1 1 1 0 1
|
Równość kolumn wynikowych trzeciej i ostatniej jest dowodem poprawności prawa Kubusia.
Najbardziej elegancki dowód praw Kubusia zaprezentował Wuj Zbój:
A.
p=>q = ~p+q - definicja implikacji prostej
p~>q = p+~q - definicja implikacji odwrotnej
Prawo Kubusia:
p=>q = ~p~>~q - prawo zamiany operatora => na ~>
Dla prawej strony korzystamy z definicji implikacji odwrotnej:
B.
~p~>~q = (~p)+~(~q) = ~p+q
bo:
~(~q)=q - prawo podwójnego przeczenia
Prawe strony równań A i B są identyczne zatem prawo Kubusia jest prawdziwe.
CND
Jako ostatni, metodą nie wprost, udowodnił prawa Kubusia Zbanowany Uczy.
8.6 Prawo Kłapouchego
Prawo Kłapouchego:
Zdanie „Jeśli…to…” jest implikacją wtedy i tylko wtedy gdy spełnione jest prawo Kubusia
Prawa Kubusia, prawdziwe wyłącznie w implikacji (fałszywe w równoważności) to wyrocznia rozstrzygająca czy zdanie „Jeśli…to…” jest implikacją.
Prawa Kubusia:
p=>q = ~p~>~q - prawo zamiany implikacji prostej => na równoważną implikację odwrotną ~>
p~>q = ~p=>~q - prawo zamiany implikacji odwrotnej ~> na równoważną implikację prostą =>
Operatorowa definicja implikacji prostej:
Kod: |
Tabela A
p q = Y=p=>q
p=> q = 1
p=> ~q = 0
~p~> ~q = 1
~p~~> q = 1
|
Prawo Kubusia:
p=>q = ~p~>~q
Jak widać, w pierwszej części definicji mamy pewne wynikanie p=>q, natomiast w drugiej części mamy najzwyklejsze rzucanie monetą ~p~>~q.
Po stronie ~p może zajść:
~p~>~q
lub
~p~~>q
czyli:
~p=>(~q+q)
Jeśli zajdzie ~p to na pewno => zajdzie ~q lub q
Oczywiście:
~q+q =1 - prawo algebry Boole’a
Ostatnie zdanie jest tautologią, czyli wiem, że nic nie wiem.
Zgodnie z definicją iloczynu kartezjańskiego i pojęciem funkcji linie w powyższej tabeli możemy sobie dowolnie przestawiać. Przestawmy dwie pierwsze z dwoma ostatnimi.
Operatorowa tabela implikacji odwrotnej dla parametrów ~p i ~q.
Kod: |
Tabela B
~p ~q = Y=~p~>~q
~p~> ~q = 1
~p~~> q = 1
p=> q = 1
p=> ~q = 0
|
Prawo Kubusia:
~p~>~q = p=>q
Tabela A i tabela B to jedna i ta sama tabela bo linie wolno nam dowolnie przestawiać. Tabela B to definicja implikacji odwrotnej (tabela C) dla parametrów ~p i ~q.
Z matematyką się nie dyskutuje
Prawa Kubusia:
p=>q = ~p~>~q
p~>q = ~p=>~q
Tam gdzie mamy operator => tam mamy pewne wynikanie matematyczne, warunek wystarczający.
Tam gdzie mamy operator ~> mamy rzucanie monetą, warunek konieczny
Tożsamość to tożsamość, jak kto obali matematykę to wtedy może twierdzić że pewne wynikanie => w implikacji jest lepsze od „rzucania monetą” czyli ~>.
Twierdzenie:
W prawach Kubusia implikacje po obu stronach tożsamości mają IDENTYCZNĄ wartość matematyczną.
CND
Zero-jedynkową definicję implikacji prostej otrzymujemy z tabeli A opuszczając operatory i przyjmując:
p=1, ~p=0
q=1, ~q=0
stąd:
Zero-jedynkowa definicja implikacji prostej:
Kod: |
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Dokładnie to samo rozumowanie możemy powtórzyć dla implikacji odwrotnej
Operatorowa definicja implikacji odwrotnej:
Kod: |
Tabela C
p q = Y=p~>q
p ~> q = 1
p~~>~q = 1
~p=> ~q = 1
~p => q = 0
|
Prawo Kubusia:
p~>q = ~p=>~q
W implikacji odwrotnej w pierwszej części mamy rzucanie monetą p~>q, natomiast w drugiej mamy pewne wynikanie ~p=>~q.
W pierwszej części mamy tautologię:
p~>q =1
LUB
p~~>~q=1
czyli:
p=>(q+~q)
bo:
q+~q=1
Jeśli zajdzie p to na pewno => zajdzie q lub ~q, czyli wiem, że nic nie wiem.
Tu również linie w powyższej definicji możemy dowolnie przedstawiać, przestawmy dwie pierwsze z dwoma ostatnimi.
Operatorowa tabela implikacji prostej dla parametrów ~p i ~q.
Kod: |
Tabela D
~p ~q = Y=~p=>~q
~p=> ~q = 1
~p => q = 0
p ~> q = 1
p~~>~q = 1
|
Prawo Kubusia:
~p=>~q = p~>q
Tabela C i D to jedna i ta sama tabela bo linie możemy dowolnie przestawiać. Tabela D to definicja implikacji prostej (Tabela A) dla parametrów ~p i ~q.
Dla tabeli C przyjmujemy:
p=1, ~p=0
q=1, ~q=0
stąd:
Zero-jedynkowa definicja implikacji odwrotnej:
Kod: |
p q p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Podsumowanie:
W dowolnej implikacji, prostej => lub odwrotnej ~> mamy w jednej połówce pewne wynikanie matematyczne =>, natomiast w drugiej połowie mamy do czynienia z najzwyklejszym rzucaniem monetą ~>, z tego względu implikacja jest bezsensem w świecie techniki.
Wniosek:
Implikacja prosta => nie może istnieć bez implikacji odwrotnej ~> i odwrotnie.
8.7 Implikacja w bramkach logicznych, twierdzenie Hipcia
Niezwykły dowód w historii logiki …
Twierdzenie Hipcia:
Prawa Kubusia są poprawne w implikacji i fałszywe w równoważności
Prawa kontrapozycji są poprawne w równoważności i fałszywe w implikacji
Dowód I
Prawa Kubusia są poprawne w implikacji
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” => zajść q
p musi być wystarczające dla q
Stąd bramka implikacji prostej to układ logiczny OR z zanegowanym w środku bramki wejściem p.
Kod: |
p q
| |
| |
-------
|O => |
|OR |
-------
|
|
p=>q
|
Uwaga:
W teorii układów logicznych kółko „O” jest symbolem negacji.
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być konieczne dla q
Stąd bramka implikacji odwrotnej to układ logiczny OR z zanegowanym w środku bramki wejściem q.
Kod: |
p q
| |
| |
-------
| ~> O|
|OR |
-------
|
|
p~>q
|
Układ zastępczy bramki implikacji prostej
p=>q = ~p~>~q
Kod: |
p q p q p q ~p ~q
| | | | | | | |
| | O O O O | |
| | |~p |~p |~p |~q | |
| | O O | | | |
| | |p |q | | | |
------- ------- ------- -------
|O => | = |O => | = | ~> O| = | ~> O|
|OR | |OR | |OR | |OR |
------- ------- ------- -------
| | | |
A B C D
p=>q p=>q ~p~>~q ~p~>~q
|
Na schemacie B wprowadzamy w linie wejściowe po dwie negacje.
Oczywiście układ nie ulegnie zmianie zgodnie z prawem podwójnego przeczenia.
p=~(~p)
Na rysunku C wpychamy po jednej negacji do środka bramki OR.
Negacja z wejście p przemieści się na wejście q [bo ~(~p)=p], zaś bramka stanie się bramką implikacji odwrotnej zgodnie z jej definicją bramkową wyżej.
Na rysunku D ostatnie negacje wepchnęliśmy do nazw sygnałów wejściowych, czyli również nic nie zmieniamy.
Oczywiście czysta matematyka jest potwierdzeniem powyższych przekształceń:
p=>q = ~p+q - definicja implikacji prostej
p~>q = p+~q - definicja implikacji odwrotnej
p=>q = ~p~>~q - prawo Kubusia
Dowód:
Dla prawej strony korzystamy z definicji implikacji odwrotnej:
~p~>~q = (~p)+~(~q) = ~p+q = p=>q
CND
Mamy zatem wyżej bramkowy dowód prawa Kubusia:
p=>q = ~p~>~q
Identycznie dowodzi się drugie prawo Kubusia:
p~>q = ~p=>~q
Układ zastępczy bramki implikacji odwrotnej
p~>q = ~p=>~q
Kod: |
p q p q p q ~p ~q
| | | | | | | |
| | O O O O | |
| | |~p |~p |~p |~q | |
| | O O | | | |
| | |p |q | | | |
------- ------- ------- -------
| ~> O| = | ~> O| = |O => | = |O => |
|OR | |OR | |OR | |OR |
------- ------- ------- -------
| | | |
A B C D
p~>q p~>q ~p=>~q ~p=>~q
|
Zauważmy fundamentalną rzecz:
We wszystkich przekształceniach bramkowych zawsze przekształcaliśmy „prawdę w prawdę”.
Nigdzie nie została użyta sztuczka rodem ze świata świrów czyli przekształcamy „prawdę w fałsz” a następnie negując fałsz otrzymujemy prawdę czyli mamy dowód iż „z fałszu powstaje prawda”. Tego typu manewry w dowodach praw logicznych są oczywiście zabronione.
Punkt odniesienia p=>q
Implikacja prosta i odwrotna, wersja ze sztywnym punktem odniesienia ustawionym na implikacji prostej p=>q.
Założenie:
p=>q - implikacja prosta prawdziwa, czyli spełniony warunek wystarczający między p i q
q~>p - implikacja odwrotna prawdziwa powstała po zamianie p i q, czyli spełniony warunek konieczny między q i p
Przykład:
A.
Jeśli liczba jest podzielna przez 8 to „musi” => być podzielna przez 2
P8=>P2
p=>q
Implikacja prosta prawdziwa bo P8 jest wystarczające dla P2
Po zamianie p i q przy sztywnym punkcie odniesienia ustalonym wyżej na p=>q mamy:
B.
Jeśli liczba jest podzielna przez 2 to „może” ~> być podzielna przez 8
P2~>P8
q~>p
Implikacja odwrotna prawdziwa bo P2 jest konieczne dla P8
Oczywiście na mocy definicji mamy:
P8=>P2 # P2~>P8
czyli:
p=>q # q~>p
bo operator => to zupełnie co innego niż operator ~>
Dla prawej strony korzystamy z prawa Kubusia:
q~>p = ~q=>~p
… i mamy dowód w zapisie ogólnym fałszywości prawa kontrapozycji w implikacji:
p=>q # ~q => ~p
Punkt odniesienia „Jeśli…to…”
Wyłącznie ta wersja jest zgodna z definicjami implikacji prostej p=>q i odwrotnej p~>q.
Implikacja prosta i odwrotna, wersja z punktem odniesienia ustawionym zawsze na „Jeśli…to…” czyli po „Jeśli” zawsze mamy p zaś po „to” zawsze jest q.
Ten sam przykład:
A.
Jeśli liczba jest podzielna przez 8 to „musi” => być podzielna przez 2
P8=>P2
p=>q
Implikacja prosta prawdziwa bo P8 jest wystarczające dla P2
Po zamianie p i q mamy:
B.
Jeśli liczba jest podzielna przez 2 to „może” ~> być podzielna przez 8
P2~>P8
p~>q
Implikacja odwrotna prawdziwa bo P2 jest konieczne dla P8
Zauważmy coś bardzo ważnego:
q~>p = P2~>P8 - zdanie B widziane z punktu odniesienia p=>q
p~>q = P2~>P8 - zdanie B widziane z punktu odniesienia „Jeśli…to…”
Prawe strony są identyczne zatem:
q~>p (punkt odniesienia p=>q) = p~>q (punkt odniesienia „Jeśli…to…”)
Oczywiście na mocy definicji mamy:
P8=>P2 # P2~>P8
czyli:
p=>q # p~>q
bo operator => to zupełnie co innego niż operator ~>
Wyłącznie ta wersja jest zgodna z definicjami:
p=>q = ~p+q - definicja implikacji prostej
p~>q = p+~q - definicja implikacji odwrotnej
W tym miejscu matematycy klasyczni będą protestować.
Zauważmy bowiem, że po obu stronach nierówności mamy różne znaczenie parametrów formalnych p i q.
Lewa strona:
p=P8, q=P2
Prawa strona:
p=P2, q=P8
Odpowiedź Kubusia:
Panowie, algebra Boole’a to algebra bramek logicznych (tu Kubuś jest ekspertem) mająca zero wspólnego z matematyką klasyczną (całki, ekstrema itp). Prawa algebry Boole’a nie muszą pokrywać się z prawami matematyki klasycznej.
Od strony matematycznej jest tu wszystko w porządku.
Definicja implikacji prostej:
p=>q
p musi być wystarczające dla q
W przełożeniu na nasz przykład mamy.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2
P8 jest wystarczające dla P2, zatem jest to implikacja prosta prawdziwa
p=>q - definicja implikacji prostej
czyli:
p=P8, q=P2
Definicja implikacji odwrotnej:
p~>q
p musi być warunkiem koniecznym dla q
Nasz przykład:
Jeśli liczba jest podzielna przez 2 to „może” ~> być podzielna przez 8
P2~>P8
p~>q
Implikacja odwrotna prawdziwa bo P2 jest konieczne dla P8
p~>q - definicja implikacji odwrotnej
czyli:
p=P2, q=P8
Jak widać, literki p i q na mocy odpowiednich definicji są dokładnie tam gdzie być powinny.
Dowód II
Prawa kontrapozycji są fałszywe w implikacji.
Dowód:
Prawo kontrapozycji:
p=>q = ~q=>~p
Założenie:
p=>q =1
czyli:
p=>q jest implikacją prostą prawdziwą czyli między p i q spełniony jest warunek wystarczający.
Pseudo dowód:
1.
Zamieniamy p i q miejscami otrzymując
p=>q # q=>p
Oczywiście jeśli:
p=>q =1 to q=>p =0
czyli:
1=>0
Negujemy teraz sygnały p i q, oczywiście matematycznie zachodzi:
q=>p # ~q=>~p
czyli z fałszu powstała prawda:
0=>1
… no i mamy dowód najsłynniejszego idiotyzmu dzisiejszej logiki „z fałszu powstaje prawda”
Porównajmy ten dowód z dowodem poprawności praw Kubusia w implikacji. Różnica jest fundamentalna bo w dowodzie praw Kubusia nigdy nie przechodziliśmy do fałszu.
Twierdzenie Kubusia:
W logice poprawny jest tylko i wyłącznie ten dowód, w którym nie ma przejścia z „prawdy do fałszu” a następnie cudu w postaci „z fałszu powstaje prawda”.
Oczywistym jest, że prawa kontrapozycji są poprawne w równoważności bo tu na mocy definicji mamy:
p=>q = q=>p = ~p=>~q = ~q=>~p
stąd prawo kontrapozycji:
p=>q = ~q=>~p
8.8 Kwadrat logiczny implikacji
Kwadrat logiczny implikacji w wersji z parametrami formalnymi:
Kod: |
p=>q=~p+q p~>q=p+~q
~p~>~q=~p+q ~p=>~q=p+~q
|
Oczywiście w pionach mamy tu prawa Kubusia:
p=>q = ~p~>~q - prawo zamiany operatora => na ~>
p~>q = ~p=>~q - prawo zamiany operatora ~>na =>
Między pionami nie zachodzą żadne zależności matematyczne co widać w prawych stronach tożsamości.
8.9 Równoważność
Dziewicza tabela zero-jedynkowa równoważności:
Kod: |
p q p<=>q
1 1 1
1 0 0
0 0 1
0 1 0
|
Z tabeli zero-jedynkowej widać, że równoważność jest przemienna, czyli wszystko jedno którą cześć zdania nazwiemy p a którą q.
Algebra Kubusia to algebra symboliczna. W zabawie implikacją w przedszkolu przeszliśmy z naturalnego języka mówionego do definicji operatorowej po czym do definicji symbolicznej na końcu lądując w tabeli zero-jedynkowej. Tym razem zrobimy dokładnie odwrotnie.
Przechodzimy z powyższą tabelą do symbolicznej definicji równoważności przyjmując:
p=1, ~p=0
q=1, ~q=0
Symboliczna definicja równoważności:
Kod: |
p q p<=>q
p q 1
p ~q 0
~p ~q 1
~p q 0
|
Dla linii z jedynkami w wyniku układamy równanie algebry Boole’a
Definicja równoważności w równaniu algebry Boole’a:
A: p<=>q = p*q+~p*~q
Bardzo łatwo udowodnić poprawność równoważnych definicji równoważności, wynikających z przemienności argumentów oraz powyższej definicji:
B: ~p<=>~q
C: q<=>p
D: ~q<=>~p
Udowodnimy tylko B bo pozostałe dowody są analogiczne.
Korzystamy z definicji równoważności A:
E: ~p<=>~q = (~p)*(~q) + ~(~p)*~(~q) = ~p*~q + p*q = p*q + ~p*~q
Prawe strony równań A: i E: są identyczne, zatem są to równoważne definicje.
Z pierwszej linii definicji symbolicznej widać, że jeśli zajdzie p to „musi” => zajść q bo druga linia tabeli jest fałszem. Podobnie z trzeciej linii widać, że jeśli zajdzie ~p to „musi” => zajść ~q bo ostatnia linia jest fałszem.
Stąd pełna definicja operatorowa równoważności przybierze postać:
Kod: |
p=> q =1
p=>~q =0
~p=>~q =1
~p=> q =0
|
Mamy tu zatem doskonale nam znane z definicji implikacji warunki wystarczające zachodzące między p i q oraz między ~p i ~q.
Stąd operatorowa definicja równoważności:
p<=>q = (p=>q)*(~p=>~q) =1*1 =1
gdzie:
p=>q - warunek wystarczający między p i q, nigdy implikacja prosta p=>q
~p=>~q - warunek wystarczający między ~p i ~q, nigdy implikacja prosta ~p=>~q
Dlaczego powyższe zapisy nie mogą być implikacją ?
Wynika to z prawa Kłapouchego:
Zdanie „Jeśli…to…” jest implikacją wtedy i tylko wtedy gdy spełnione jest prawo Kubusia
Prawo Kubusia dla powyższej tabeli:
p=>q = ~p~>~q
czyli w implikacji musi zachodzić warunek konieczny między ~p i ~q, natomiast w równoważności między ~p i ~q zachodzi warunek wystarczający.
Przykład:
Jeśli zwierzę jest psem to ma cztery łapy
P=>4L
Bycie psem jest wystarczające aby mieć cztery łapy, zatem jest to implikacja prosta prawdziwa
Definicja operatorowa dla powyższego zdania:
Kod: |
P=>4L =1
P=>~4L=0
~P~>~4L=1
~P~~>4L=1
|
Aby w powyższej tabeli ostatnia linia wyzerowała się, musiałaby być prawdziwa implikacja prosta:
~P=>~4L
czyli:
Jeśli zwierzę nie jest psem to na pewno => nie ma czterech łap
~P=>~4L=0 - oczywisty fałsz bo słoń
Zatem równoważność nie może być iloczynem dwóch implikacji prostych p=>q i ~p=>~q bo takowe są niemożliwe do zaistnienia.
Można to udowodnić jeszcze prościej ….
Oczywistym jest na podstawie definicji implikacji prostej => że:
p=>q=~p+q # ~p=>~q= ~(~p)+(~q) = p+~q
To jest algebra Boole’a, zatem:
Jeśli implikacja prosta p=>q=1 to implikacja prosta ~p=>~q=0 bo:
p=>q # ~p=>~q
Stąd definicja równoważności nie może być iloczynem logicznym dwóch implikacji prostych bo:
p<=>q = (p=>q)*(~p=>~q) = 1*0=0
Dowód nie wprost:
Zauważmy, że gdyby to była prawda matematyczna to przekształcenia musiałyby być odwracalne, czyli dowolną równoważność można by rozbić na dwie implikacje proste, co jest oczywistą bzdurą. Kamikaze mogą próbować.
Wniosek:
Twierdzenie co niektórych dzisiejszych matematyków jakoby równoważność była iloczynem dwóch implikacji prostych można między bajki włożyć.
CND
8.10 Kwadrat logiczny równoważności
Narysujmy kwadrat logiczny równoważności analogiczny do kwadratu logicznego implikacji.
Kod: |
A1: p=>q=1 B1: q=>p=1
A2: ~p=>~q=1 B2: ~q=>~p=1
|
Argumenty w równoważności są przemienne, zatem wszystko jedno którą część zdania nazwiemy p a którą q. Tu możemy na stałe przywiązać p do jednej strony równoważności, zaś q do drugiej.
Stąd zapisy: p=>q i q=>p.
Oczywiście we wszystkich rogach kwadratu równoważności mamy twarde jedynki wynikające ze spełnionego warunku wystarczającego (to nie są implikacje!), zatem:
p=>q = q=>p = ~p=>~q = ~q=>~p
Stąd mamy znane w matematyce prawo kontrapozycji:
p=>q = ~q=>~p
Prawo kontrapozycji jest poprawne w równoważności i fałszywe w implikacji (dowód pkt.8.7)
Prawa Kubusia są poprawne w implikacji i fałszywe w równoważności (oczywistość)
Definicja równoważności to iloczyn logiczny warunków wystarczających (nie implikacji !) wzdłuż dowolnego boku kwadratu logicznego równoważności.
Najpopularniejsze definicje to:
A.
p<=>q = (p=>q)*(~p=>~q)
B.
p<=>q = (p=>q)*(q=>p)
Definicja B wynika z A bo prawo kontrapozycji poprawne w równoważności:
~p=>~q = q=>p
Dowód:
p=>q = ~p+q - definicja implikacji prostej
~p=>~q = ~(~p)+(~q) = p+~q = ~q+p = q=>p
W równoważności zachodzi przemienność argumentów która przenosi się na przemienność argumentów w sumie logicznej stąd wyżej:
p+~q = ~q+q
9.0 Kodowanie zdań ze spójnikiem „Jeśli…to…”
Spójniki zdaniowe:
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Kodowanie zdań ze spójnikiem „Jeśli…to…”:
Implikacja prosta:
p=>q
Jeśli zajdzie p to na pewno => zajdzie q
p musi być wystarczające dla q
Stwierdzenie warunku wystarczającego w p=>q determinuje zdanie prawdziwe które może być:
1.
Implikacją prostą p=>q jeśli po stronie ~p stwierdzimy warunek konieczny czyli:
~p~>~q
Czasami prościej jest wykluczyć warunek wystarczający w stronę ~p=>~q, to wystarczy aby udowodnić że zdanie p=>q jest implikacją prostą.
2.
Równoważnością p<=>q, gdy po stronie ~p również stwierdzimy warunek wystarczający czyli
~p=>~q.
Definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)=1*1=1
3.
Jeśli zdanie jest implikacją prostą to w stronę p=>q zachodzi warunek wystarczający, natomiast w stronę q~>p musi zachodzić warunek konieczny. Jeśli w stronę q=>p stwierdzimy warunek wystarczający to zdanie jest na pewno równoważnością, nigdy implikacją.
Definicja równoważna równoważności:
p<=>q = (p=>q)*(q=>p) = 1*1=1
Stąd mamy kolejną możliwość stwierdzenia czy zdanie jest implikacją. Po stwierdzeniu warunku wystarczającego w stronę p=>q wystarczy wykluczyć warunek wystarczający w stronę q=>p.
Implikacja odwrotna:
p~>q
Jeśli zajdzie p to może ~> zajść q
p musi być konieczne dla q
Stwierdzenie warunku koniecznego w p~>q determinuje implikację odwrotną:
p~>q
ale ….
Zdanie może być prawdziwe na mocy naturalnego spójnika „może” ~~> (wystarczy jedna prawda) i nie być implikacją odwrotną np.
Jeśli liczba jest podzielna przez 8 to może ~~> być podzielna przez 3
P8~~>P3 =1 bo 24
P8 nie jest konieczne dla P3 bo 3, nie jest to zatem implikacja odwrotna.
Koniec, to jest cała filozofia kodowania zdań ze spójnikiem „Jeśli…to…”
Zauważmy coś bardzo ciekawego.
A.
Jeśli trójkąt ma boki równe to na pewno => jest równoboczny
BR=>R =1
B.
Jeśli trójkąt nie ma boków równych to na pewno => nie jest równoboczny
~BR=>~R =1
Stąd na podstawie definicji równoważności możemy zapisać:
C.
Trójkąt ma boki równe wtedy i tylko wtedy gdy jest równoboczny
BR<=>R = (BR=>R)*(~BR=>~R) = 1*1=1 - ewidentna równoważność
Aby stwierdzić równoważność musimy zapisać i zbadać czy zachodzą warunki wystarczające jak wyżej w A i B. Wszystkie trzy zdania są matematycznie poprawne bowiem w definicji równoważności chodzi tylko i wyłącznie o warunki wystarczające, nigdy o implikacje (dowód pkt. 8.9)
Zauważmy, że gdybyśmy nie mieli prawa zapisać zdań A i B jako prawdziwych to niemożliwe byłoby stwierdzenie równoważności !
W zdaniach A, B i C nie ma niejednoznaczności bo:
1.
Fizycznie niemożliwym jest zrobienie implikacji z równoważności (zdania A i B) i odwrotnie (dowód pkt. 8.9)
2.
Twierdzenia matematyczne zwykle ujęte są w spójnik „Jeśli…to…”, pomimo że praktycznie 100% twierdzeń to równoważności. W twierdzeniach matematycznych spójnik „Jeśli…to…” jest domyślną równoważnością.
3.
Zdania A, B i C można zakodować superprecyzyjnie jako:
BR<=>R
To jest oczywistość mimo zapisania jej w formie A lub B.
Wniosek:
Zdanie „Jeśli … to …” może być implikacją prostą, implikacją odwrotną lub równoważnością co zależy od treści zdania.
Inny przykład:
Twierdzenie Pitagorasa.
Jeśli trójkąt jest prostokątny to suma kwadratów przyprostokątnych jest równa kwadratowi przeciwprostokątnej.
TP=>SK =1 - pewny warunek wystarczający (nie implikacja !)
Jeśli trójkąt nie jest prostokątny to nie jest spełniona suma kwadratów.
~TP=>~SK=1 - również pewny warunek wystarczający
Twierdzenie Pitagorasa jest równoważnością bo:
TP<=>SK = (TP=>SK)*(~TP=>~SK) = 1*1 =1
Aby stwierdzić czy zdanie „Jeśli…to…” jest równoważnością musimy stwierdzić warunki wystarczające jak wyżej. Wtedy i tylko wtedy zdanie jest równoważnością.
Wynika z tego, że ten sam symbol => może oznaczać implikację prostą albo warunek wystarczający =>.
Więcej na temat tego problemiku tu:
Nadmierna precyzja
9.1 Prawo Tygryska
Definicja równoważności:
p<=>q = (p=>q)*(~p=>~q) = (p=>q)*(q=>p)
Prawo Tygryska:
Zdanie „Jeśli…to…” jest równoważnością wtedy i tylko wtedy gdy zachodzą warunki wystarczające między p=>q i ~p=>~q lub między p=>q i q=>p, nie są to implikacje.
Wynika to bezpośrednio z prawa Kłapouchego (pkt.8.6) i definicji równoważności (pkt.8.9).
Przykład wyżej.
10.0 Tablica Mendelejewa logiki
Na podstawie definicji implikacji prostej => i odwrotnej ~> całą logikę w zakresie operatorów implikacji i równoważności możemy rozbić na pierwiastki pierwsze.
W kodowaniu zero-jedynkowym przyjmujemy logikę dodatnią:
p=1, ~p=0
q=1, ~q=0
Definicje warunków wystarczających:
Kod: |
A.
p=> q =1
1 1 =1
p=>~q =0
1 0 =0
B.
~p=>~q =1
0 0 =1
~p=> q =0
0 1 =0
|
Definicje warunków koniecznych:
Kod: |
C.
p~> q =1
1 1 =1
p~~>~q =1
1 0 =1
D.
~p~>~q =1
0 0 =1
~p~~>q =1
0 1 =1
|
Same warunki wystarczające/konieczne nie są operatorami logicznymi bo nie da się ich opisać równaniem algebry Boole’a. Brakuje bowiem wszystkich kombinacji zer i jedynek po stronie p i q.
Możliwe jest osiem pełnych definicji zero-jedynkowych, czyli wszystkich kombinacji zer i jedynek po stronie p i q, zbudowanych z powyższych warunków.
Zauważmy, że złożenie warunków C i D daje po stronie p i q wszystkie możliwe kombinacje zer i jedynek, ale w wyniku będziemy mieli wówczas same jedynki czyli zero logiki.
Zauważmy, że jeśli w C spełniony jest warunek konieczny p~>q, to zajście ~p wymusza zajście ~q czyli w sposób naturalny mamy tu dowód prawa Kubusia.
p~>q = ~p=>~q
Prawa strona jest sprzeczna z tabelą D, dlatego w rzeczywistości złożenie dwóch warunków koniecznych C i D nie jest możliwe do zaistnienia. Pozostałe sześć przypadków to …
10.1 Równoważność
Równoważność to złożenie dwóch warunków wystarczających A-B.
Definicja równoważności:
Kod: |
A-B
p q p<=>q
p=> q =1
p=>~q =0
~p=>~q =1
~p=> q =0
|
Zamieniamy dwie pierwsze linie z dwoma ostatnimi.
Kod: |
B-A
~p ~q ~p<=>~q
~p=>~q =1
~p=> q =0
p=> q =1
p=>~q =0
|
Oczywiście obie tabele są równoważne bo linie w tabeli możemy dowolnie przestawiać czyli:
p<=>q = ~p<=>~q
bo to jedna i ta sama tabela symboliczna (zero-jedynkowa).
Z tabeli A-B mamy definicję operatorową równoważności:
p<=>q = (p=>q)*(~p=>~q)
Tabela B-A to tabela A-B dla parametrów ~p i ~q.
Dowód:
Dla ~p i ~q na podstawie powyższej definicji mamy:
~p<=>~q = [(~p)=>(~q)]*[~(~p)=>~(~q)] = (~p=>~q)*(p=>q) = (p=>q)*(~p=>~q)
Prawe strony równe zatem:
p<=>q = ~p<=>~q
10.2 Implikacja prosta
Implikacja prosta to złożenie warunku wystarczającego p=>q (A) z warunkiem koniecznym ~p~>~q (D).
Definicja implikacji prostej:
Kod: |
A-D
p q p=>q
p=> q =1
p=>~q =0
~p~>~q =1
~p~~>q =1
|
Przestawiamy dwie pierwsze linie z dwoma ostatnimi.
Kod: |
D-A
~p ~q ~p~>~q
~p~>~q =1
~p~~>q =1
p=> q =1
p=>~q =0
|
Oczywiście to dwie identyczne tabele symboliczne (zero-jedynkowe) bo linie możemy dowolnie przestawiać.
Stąd mamy dowód prawa Kubusia:
p=>q = ~p~>~q
Zauważmy, że tabela D-A to definicja implikacji odwrotnej C-B dla parametrów ~p i ~q.
10.3 Implikacja odwrotna
Implikacja odwrotna to złożenie warunku koniecznego p~>q (C) z warunkiem wystarczającym ~p=>~q (B).
Kod: |
C-B
p q p~>q
p~> q =1
p~~>~q =1
~p=> ~q =1
~p=> q =0
|
Zamieniamy dwie pierwsze linie z dwoma ostatnimi.
Kod: |
B-C
~p ~q ~p=>~q
~p=> ~q =1
~p=> q =0
p~> q =1
p~~>~q =1
|
Powyższe tabele są identyczne bo linie możemy dowolnie przestawiać, stąd:
Prawo Kubusia:
p~>q = ~p=>~q
Zauważmy, że tabela B-C to tabela A-D (implikacja prosta) dla parametrów ~p i ~q.
10.4 Operatorowa definicja implikacji prostej w praktyce
Implikacja prosta - przemienność argumentów nie zachodzi
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Operatorowa definicja implikacji prostej:
Kod: |
Tabela A
p q p=>q
A: p=> q = 1
B: p=>~q = 0
C:~p~>~q = 1
D:~p~~>q = 1
|
Prawo Kubusia:
p=>q = ~p~>~q
gdzie:
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Przykład 10.4:
Jeśli liczba jest podzielna przez 8 to jest podzielna przez 2
P8=>P2
P8 jest wystarczające dla P2 zatem jest to implikacja prosta prawdziwa
Analiza:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2 =1 bo 8,16..
1 1 =1
B.
Jeśli liczba jest podzielna przez 8 to na pewno => nie jest podzielna przez 2
P8=>~P2 =0
1 0 =0
Prawo Kubusia:
P8=>P2 = ~P8~>~P2
C.
Jeśli liczba nie jest podzielna przez 8 to może ~> być niepodzielna przez 2
~P8~>~P2 =1 bo 1,3,5 ..
0 0 =1
LUB
D.
Jeśli liczba nie jest podzielna przez 8 to może ~~> być podzielna przez 2
~P8~~>P2 =1 bo 2,4,6..
0 1 =1
Doskonale widać tu zero-jedynkową definicję implikacji prostej dla:
P8=1, ~P8=0
P2=1, ~P2=0
Zdanie D nie może być implikacją odwrotną.
Dowód nie wprost:
Załóżmy że D jest implikacją odwrotną ~P8~>P2.
Obowiązuje wówczas prawo Kubusia:
D: ~P8~>P2 = B: P8=>~P2
Zdanie B jest oczywistym fałszem zatem D nie może być implikacja odwrotną, bo wówczas prawo Kubusia ległoby w gruzach.
Prawdziwość zdania D określa równanie:
(~P8~~>P2) + (~P8~>P2) = 1+0 =1
Zdanie D jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy jedna prawda.
10.4.1 Gwarancja w implikacji prostej
Istotą implikacji jest gwarancja matematyczna którą na mocy definicji jest zawsze implikacja prosta =>, wszystko inne jest bez znaczenia.
Gwarancja dla powyższego przykładu:
P8=>P2
Jeśli zajdzie P8 to na pewno zajdzie P2
Gwarantowane liczby to:
8,16,24 …
10.5 Operatorowa definicja implikacji odwrotnej w praktyce
Implikacja odwrotna - przemienność argumentów nie zachodzi
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Operatorowa definicja implikacji odwrotnej:
Kod: |
Tabela A
p q p~>q
A: p ~> q = 1
B: p~~>~q = 1
C:~p=> ~q = 1
D:~p => q = 0
|
Prawo Kubusia:
p~>q = ~p=>~q
gdzie:
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
Przykład 10.5
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8
P2 jest konieczne dla P8, zatem jest to implikacja odwrotna prawdziwa
Analiza:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8 =1 bo 8,16…
1 1 =1
LUB
Jeśli liczba jest podzielna przez 2 to może ~~> nie być podzielna przez 8
P2~~>~P8 =1 bo 2,4,6…
1 0 =1
Prawo Kubusia:
P2~>P8 = ~P2=>~P8
czyli:
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8 =1 bo 1,3,5…
0 0 =1
Jeśli liczba nie jest podzielna przez 2 to na pewno => jest podzielna przez 8
~P2=>P8 =0
0 1 =0
Po przyjęciu logiki dodatniej:
P2=1, ~P2=0
P8=1, ~P8=0
Doskonale widać tabelę zero-jedynkową implikacji odwrotnej.
10.5.1 Gwarancja w implikacji odwrotnej
Istotą implikacji jest gwarancja matematyczna którą na mocy definicji jest zawsze implikacja prosta =>, wszystko inne jest bez znaczenia.
Gwarancja dla powyższego przykładu:
~P2=>~P8
Jeśli nie zajdzie P2 to na pewno => nie zajdzie P8
Gwarantowane liczby to:
1,3,5 …
10.6 Porównanie gwarancji w implikacji prostej i odwrotnej
Podsumujmy analizę implikacji prostej i odwrotnej wyżej.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2
G1.
Gwarantowane liczby to:
8, 16, 24 …
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8
Gwarancją jest tu implikacja prosta wynikająca z prawa Kubusia:
P2~>P8 = ~P2=>~P8
czyli:
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
G2.
Gwarantowane liczby to:
1,3,5,7 …
Istotą implikacji jest gwarancja matematyczna, wszystko inne jest bez znaczenia.
Mamy tu dowód na przykładzie że:
G1 # G2
czyli:
P8=>P2 # P2~>P8
… bo gwarancje po obu stronach są fundamentalnie inne.
Oczywiście gwarancje wynikające z praw Kubusia są identyczne po obu stronach równań:
p=>q = ~p~>~q = ~p+q
p~>q = ~p=>~q = p+~q
CND
10.7 Operatorowa definicja równoważności w praktyce
Równoważność - przemienność argumentów zachodzi
Definicja równoważności:
p<=>q = p*q+~p*~q
p zajdzie wtedy i tylko wtedy gdy zajdzie q
Operatorowa definicja równoważności:
Kod: |
p=> q =1
p=>~q =0
~p=>~q =1
~p=> q =0
|
Podstawowa definicja operatorowa równoważności, wynikająca z powyższej definicji operatorowej (także z zero-jedynkowej):
A.
p<=>q = (p=>q)*(~p=>~q) = 1*1 =1
gdzie:
p=>q, ~p=>~q, q=>p - zachodzące warunki wystarczające, nie są to implikacje
Przykład 10.6
Trójkąt ma boki równe wtedy i tylko wtedy gdy jest równoboczny
BR=>R
Analiza:
A.
Jeśli trójkąt ma boki równe to na pewno => jest równoboczny
BR=>R =1
1 1 =1
B.
Jeśli trójkąt ma boki równe to na pewno => nie jest równoboczny
BR=>~R =0
1 0 =1
C.
Jeśli trójkąt nie ma boków równych to na pewno nie jest równoboczny
~BR=>~R =1
0 0 =1
D.
Jeśli trójkąt nie ma boków równych to na pewno jest równoboczny
~BR=>R
0 1 =0
Doskonale widać tabelę zero-jedynkowa równoważności dla:
BR=1, ~BR=0
R=1, ~R=0
Zauważmy, że w powyższej tabeli symbol => oznacza wyłącznie warunek wystarczający, nie jest to operator implikacji prostej bo nie zachodzą prawa Kubusia decydujące o tym czy zdanie jest implikacją.
Dowód nie wprost.
Załóżmy że zdanie A jest implikacja prostą:
Prawo Kubusia:
A: BR=>R = C: ~BR~>~R
Mamy tu konflikt z linią C w której stoi:
C: ~BR=>~R
CND
Z kolei jeśli założymy, że linia C jest implikacją prostą to mamy.
Prawo Kubusia:
C: ~BR=>~R = A: ~BR~>~R
Tu z kolei mamy sprzeczność z linią A, zatem zdanie C nie może być implikacją prostą prawdziwą.
CND
Zauważmy, że mamy wyżej matematyczną niejednoznaczność, bowiem użyty w równoważności operator warunku wystarczającego =>, jest czym innym niż operator implikacji prostej. Równoważność to fundamentalnie co innego niż implikacja na mocy definicji zero-jedynkowej. Nie ma sensu wprowadzać nowego symbolu np. |=> oznaczającego wyłącznie warunek wystarczający bo nie da się go opisać równaniem algebry Boole’a. Mózg człowieka to nie komputer. Pamiętajmy po prostu że symbol => użyty w równoważności oznacza wyłącznie warunek wystarczający, nie jest to operator implikacji prostej.
Matematyka która twierdzi że cokolwiek może być równoważnością prawdziwą, albo implikacją prawdziwą w zależności jaki spójnik użyję jest bez sensu, to chciejstwo człowieka.
Trójkąt ma boki równe wtedy i tylko wtedy gdy jest równoboczny
BR<=>R
Definicja operatorowa równoważności:
BR<=>R = (BR=>R)*(~BR=>~R) = (BR=>R)*(R=>BR)
Oczywiście że w zapisach po prawej stronie chodzi o warunki wystarczające czyli zaledwie połówkę całej definicji implikacji:
Żaden z zapisów po prawej stronie nie może być implikacją. Łatwo to sprawdzić analizując dowolne zdanie przez pełną definicje implikacji np.
Jeśli trójkąt jest równoboczny to na pewno => ma boki równe
R=>BR
Definicja implikacji prostej:
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
Ostatnia linia w odniesieniu do naszego przykładu:
~R*BR =1
czyli:
Istnieje trójkąt który nie jest równoboczny (~R) i ma boki równe (BR) - oczywisty fałsz, zatem zdanie R=>BR nie może być implikacja prostą prawdziwą.
Użyty tu symbol => oznacza wyłącznie warunek wystarczający, to nie jest operator implikacji prostej p=>q.
Oczywiście mamy tu niejednoznaczność z którą nie warto walczyć z dwóch powodów:
1.
Mózg człowieka to nie komputer. Jeśli coś jest udowodnioną równoważnością to każdy powinien wiedzieć że w zdaniu R=>BR chodzi wyłącznie o warunek wystarczający. W mowie potocznej można to nawet nazwać dla uproszczenia implikacją, ale prawdę matematyczną trzeba znać !
2.
Definicja warunku wystarczającego
p q p=>q
1 1 =1
1 0 =0
p jest wystarczające dla q, bo druga linia jest fałszem.
to zaledwie dwie linijki, czyli połowa definicji implikacji lub równoważności. Nie da się tego zapisać w równaniu algebry Boole’a.
Zauważmy, że wyżej obaliliśmy mit dzisiejszej matematyki która twierdzi, że jeśli zdanie jest równoważnością to nie wolno nam użyć spójnika "Jeśli...to...". Oczywiście że wolno w znaczeniu jak wyżej, oczywiście że to jest zdanie prawdziwe, oczywiście że nie chodzi w nim o prawdziwość implikacji ale wyłącznie o prawdziwość warunku wystarczającego.
11.0 Obietnice i groźby
Jednym z przykładów zastosowania implikacji prostej i odwrotnej jest matematyczna obsługa obietnic i gróźb.
11.1 Obietnice
Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N =1 - twarda prawda
Implikacja prosta bo dobrowolnych obietnic musimy dotrzymywać
Spełnienie warunku nagrody jest warunkiem wystarczającym dla otrzymania nagrody
Gwarancja w obietnicy:
Jeśli spełnię warunek nagrody to na pewno => dostanę nagrodę z powodu spełnienia warunku nagrody. Poza tym wszystko może się zdarzyć.
Przykład:
A:
Jeśli będziesz grzeczny dostaniesz czekoladę
G=>C =1 - twarda prawda
B:
Jeśli będziesz grzeczny nie dostaniesz czekolady
G=>~C =0 - twardy fałsz
… a jeśli nie będę grzeczny ?
Prawo Kubusia:
G=>C = ~G ~>~C
C:
Jeśli nie będziesz grzeczny to nie dostaniesz czekolady
Matematycznie oznacza to:
Jeśli nie będziesz grzeczny to „możesz” ~> nie dostać czekolady
~G~>~C =1
Implikacja odwrotna prawdziwa bo bycie niegrzecznym jest warunkiem koniecznym nie dostania czekolady. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca zgodnie ze swoim „widzi mi się” czyli wolna wolą.
LUB
D:
Jeśli nie będziesz grzeczny to możesz dostać czekoladę
~G~~>C =1 - zdanie prawdziwe na mocy naturalnego spójnika „może” ~~> (wystarczy jeden taki przypadek)
Prawdziwość zdania D określa wzór:
(~G~~>C)+(~G~>C) = 1+0=1
gdzie:
~G~>C=0 - implikacja odwrotna fałszywa
~G~~>C=1 - nadawca ma prawo do wręczenia nagrody mimo nie spełnienia warunku nagrody (akt miłości)
Dlaczego zdanie D nie może być implikacją odwrotną ?
Dowód nie wprost;
Załóżmy że zdanie D: ~G~>C jest implikacją odwrotną, obowiązują zatem prawa Kubusia.
~G~>C = G=>~C
Prawa strona jest twardym fałszem na mocy B:, zatem zdanie D: nie może być implikacją odwrotną
CND
Uwaga:
W groźbach (zdanie C) naturalny spójnik implikacji odwrotnej „może” jest pomijany gdyż osłabiałby groźbę. Nie prowadzi to do niejednoznaczności gdyż wszystko co żyje musi odróżniać nagrodę od kary, to warunek przetrwania.
Jedyne sensowne przejście z operatora implikacji prostej do implikacyjnych AND(*) i OR(+) to odpowiedź na pytanie dziecka „kiedy wystąpi kłamstwo”:
Jeśli będziesz grzeczny dostaniesz czekoladę
Y=G=>C
Jaś:
….mama a kiedy będziesz kłamczuchą ?
Y=G=>C = ~G+C = ~(G*~C) - dotrzymam słowa
czyli:
~Y=~(G=>C) = G*~C - skłamię
Synku, skłamię (~Y=1) jeśli będziesz grzeczny i nie dostaniesz czekolady.
~Y=G*~C
Jaś:
Mama, a czy może się zdarzyć, że będę grzeczny i nie dostanę czekolady ?
Negujemy powyższe równanie dwustronnie:
Y=~(G*~C)
Nie może się zdarzyć że będziesz grzeczny i nie dostaniesz czekolady
~(G*~C)
Zauważmy, że ostatnie pytanie Jasia jest mało prawdopodobne bo odpowiedź dostał wcześniej.
11.2 Groźby
Definicja groźby:
Jeśli dowolny warunek to kara
W~>K =1
Implikacja odwrotna bo nadawca może ukarać, ale nie musi.
Spełnienie warunku kary jest warunkiem koniecznym ukarania z powodu spełnienia warunku kary. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.
Gwarancja w groźbie wynika z prawa Kubusia:
W~>K = ~W => ~K
Stąd gwarancja:
~W => ~K
Jeśli nie spełnię warunku kary to na pewno => nie zostanę ukarany z powodu nie spełnienia warunku kary. Poza tym wszystko może sie zdarzyć.
W groźbie nadawca ma nadzieję (marzenie), że odbiorca nie spełni warunku kary i nie będzie musiał karać. Jeśli odbiorca spełni warunek kary to nadawca może wykonać karę lub ją darować zgodnie ze swoim „widzi mi się”, czyli wolną wolą.
Po stronie odbiorcy również występuje nadzieja (marzenie), że nawet jeśli spełni warunek kary to nadawca nie wykona kary (akt łaski). W groźbie decyzję o darowaniu kary podejmuje wyłącznie nadawca, odbiorca nie ma tu nic do powiedzenia.
Przykład:
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L - implikacja odwrotna bo groźba
W groźbach naturalny spójnik implikacji odwrotnej „może” ~> jest z reguły pomijany bo osłabiałby groźbę. Nie prowadzi to do niejednoznaczności, gdyż definicje groźby i obietnicy są bardzo proste i precyzyjne.
Analiza:
A:
Jeśli ubrudzisz spodnie to możesz ~> dostać lanie
B~>L =1
LUB
B:
Jeśli ubrudzisz spodnie to możesz nie dostać lania
B ~~> ~L =1 - zdanie prawdziwe na mocy naturalnego spójnika „może” ~~>, nie jest to implikacja odwrotna.
… a jeśli nie ubrudzę spodni ?
B~>L = ~B => ~L - prawo Kubusia
C:
Jeśli nie ubrudzisz spodni to na pewno => nie dostaniesz lania
~B => ~L =1 - twarda prawda (gwarancja)
LUB
D:
Jeśli nie ubrudzisz spodni to na pewno => dostaniesz lania
~B => L =0 - twardy fałsz
Dlaczego zdanie B nie może być implikacja odwrotną ?
Dowód nie wprost:
Załóżmy że zdanie B: B~>~L jest implikacja odwrotną.
Obowiązuje wówczas prawo Kubusia:
B: B~>~L = D: ~B=>L
Zdanie D: jest oczywistym fałszem, zatem zdanie B nie może być implikacją odwrotną prawdziwą.
Prawdziwość zdania B: określa wzór:
(B~~>~L)+(B~>~L) = 1+0 =1
B~~>~L - nadawca ma prawo do darowania dowolnej kary (akt łaski)
Jedyne sensowne przejście z operatora implikacji odwrotnej do implikacyjnych AND(*) i OR(+) to odpowiedź na pytanie dziecka „kiedy wystąpi kłamstwo”:
Jeśli ubrudzisz spodnie dostaniesz lanie
Y=B~>L
Jaś:
… tata, a kiedy skłamiesz ?
Y=B~>L = B+~L = ~(~B*L) - dotrzymam słowa
Negujemy dwustronnie:
~Y=~(B~>L) = ~B*L - skłamię
Skłamię (~Y=1), jeśli przyjdziesz w czystych spodniach (~B) i dostaniesz lanie (z powodu czystych spodni !)
~Y=~B*L
Jaś:
… a czy może się zdarzyć że przyjdę w czystych spodniach i dostane lanie ?
Y=~(~Y) - prawo podwójnego przeczenia, stąd:
Y=~(~B*L)
Nie może się zdarzyć że przyjdziesz w czystych spodniach (~B) i dostaniesz lanie.
Y=~(~B*L)
Zauważmy, że ostatnie pytanie Jasia jest mało prawdopodobne bo odpowiedź dostał wcześniej.
11.3 Znaczenie operatora implikacji odwrotnej ~>
Jeśli jutro będzie pochmurno to może padać
CH~>P
Chmury są warunkiem koniecznym deszczu zatem implikacja odwrotna prawdziwa
Prawo Kubusia:
CH~>P = ~CH=>~P
Jeśli nie będzie pochmurno to na pewno nie będzie padać
~CH=>~P - gwarancja
Zauważmy, że po stronie operatora implikacji prostej => (warunek wystarczający) mamy 100% determinizm.
Po stronie operatora implikacji odwrotnej ~> możemy sobie rzucać monetą, nic więcej bo nie znamy przyszłości.
Jeśli jutro będzie pochmurno to […] padać
CH~>P
W miejsce […] możemy sobie wstawić cokolwiek, to bez znaczenia np. na pewno, na 100%, musi, może …
Weźmy teraz groźbę.
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L
Brudne spodnie są warunkiem koniecznym lania z powodu brudnych spodni, implikacja odwrotna prawdziwa
Prawo Kubusia:
B~>L = ~B=>~L
czyli:
Jeśli przyjdziesz w czystych spodniach to na pewno => nie dostaniesz lania
~B=>~L - gwarancja
… z powodu czystych spodni (~B) - tylko tyle i aż tyle gwarantuje implikacja odwrotna.
Mamy tu identyczna sytuację jak w implikacji o chmurach.
Jeśli ubrudzisz spodnie to […] dostaniesz lanie
B~>L
w miejsce […] możemy wstawić cokolwiek, to bez znaczenia np. nic nie wstawiać, może, na pewno, na 100%, musi …
Oczywiście nic nie może nas pozbawić wolnej woli, czyli nadawca ma prawo darować dowolną karę (zależną od niego) na sekundę przed jej wykonaniem i nie ma prawa zostać kłamcą.
Analogia do chmur jest tu bardzo celna - implikacja odwrotna ~> gwarantuje wolną wolę zarówno chmurom jak i człowiekowi.
Oczywiście w stosunku do przyrody martwej trafniejszym określeniem będzie „ślepy los”
~> = wolna wola (świat żywy), ślepy los (świat martwy)
Przenieśmy to teraz do Biblijnej groźby wypowiedzianej przez Chrystusa, oczywiście powiedzianej nie dosłownie, ale wystarczająco jednoznacznie.
Chrystus:
Kto nie wierzy we mnie nie będzie zbawiony
~W~>~Z
Brak wiary jest warunkiem koniecznym piekła, zatem jest to implikacja odwrotna ~> prawdziwa.
Prawo Kubusia:
~W~>~Z = W=>Z
Kto wierzy we mnie będzie zbawiony
W=>Z - gwarancja nieba dla wszystkich wierzących
Powyższe dwa zdania są matematycznie równoważne !
Chrystusa obowiązują (w komunikacji z człowiekiem) identyczne prawa logiki zatem:
Kto nie wierzy we mnie […] nie będzie zbawiony
~W~>~Z
W miejsce […] można wstawić cokolwiek np. nic nie wstawiać, może, na 100%, na pewno …
Operator ~> gwarantuje Chrystusowi, identycznie jak chmurom i człowiekowi wolną wolę … czyli z niewierzącymi może zrobić co uzna za stosowne, posłać ich do piekła albo do nieba. W skrajnym przypadku piekło może pozostać puste i Chrystus nie będzie kłamcą !
11.4 „Równoważność” w obietnicach i groźbach
Obietnice i groźby to przyszłość której nikt nie zna. Równoważność na mocy definicji pozbawia człowieka „wolnej woli” czyli w obietnicy prawa do darowania nagrody przy nie spełnionym warunku nagrody (akt miłości), zaś w groźbie prawa do darowania kary przy spełnionym warunku kary (akt łaski).
Obietnica:
Kupię ci komputer tylko wtedy jak zdasz egzamin
Równoważna implikacja prosta:
Jeśli zdasz egzamin dostaniesz komputer
E=>K
Wypowiadając obietnicę w formie równoważności nadawca daje do zrozumienia, iż wystąpi bardzo małe prawdopodobieństwo wręczenia obiecanej nagrody jeśli warunek nagrody nie zostanie spełniony, nic więcej.
Groźba:
Zapłacę ci za ułożenie kafelków tylko wtedy gdy skończysz do soboty
Równoważna implikacja odwrotna:
Jeśli nie skończysz układania kafelków do soboty to ci nie zapłacę
~K~>~Z
Prawo Kubusia:
~K~>~Z = K=>Z
Jeśli ułożysz kafelki do soboty to ci zapłacę
K=>Z
Nadawca może grozić w dowolnie ostrej formie, jednak ma prawo do darowania dowolnej kary zależnej od niego (akt łaski), inaczej jego wolna wola leży w gruzach.
11.5 Geneza klęski dzisiejszej logiki w obszarze implikacji
Weźmy najsłynniejszą tabelkę zero-jedynkową dzisiejszej logiki, przyczynę jej klęski w poszukiwaniu implikacji, którą posługuje się człowiek.
Kod: |
p q p=>q q=>p p~>q
1 1 1 1 1
1 0 0 1 1
0 1 1 0 0
0 0 1 1 1
|
Z tabeli tej odczytujemy że:
q=>p = p~>q
Powyższe równanie jest poprawne tylko i wyłącznie w równoważności bo tu zachodzi przemienność argumentów która przenosi się na implikacyjna sumę logiczną.
q=>p = ~q+p = p+~q = p~>q
czyli:
q=>p = p~>q
Oczywiście z tego równania wynika, że implikacja odwrotna p~>q jest zbędna w równoważności, co jest oczywistością bo w równoważności interesują nas tylko i wyłącznie warunki wystarczające.
W implikacji mamy do czynienia z brakiem przemienności argumentów (pkt.8.1) co przenosi się na brak przemienności argumentów w sumie logicznej czyli:
q=>p = ~q+p # p+~q = p~>q
Mamy tu zatem paradoks.
Z tabeli zero-jedynkowej wynika że:
q=>p = p~>q
natomiast z równań algebry Boole’a wynika że:
q=>p # p~>q
Jak z tego wybrnąć ?
Rozwiązanie tego paradoksu jest bardzo proste. W implikacji nie zachodzi przemienność argumentów. Przepiszmy zatem powyższą tabelę umieszczając wszędzie p z lewej strony zaś q z prawej strony.
Kod: |
p q p=>q p<=q p~>q
1 1 1 1 1
1 0 0 1 1
0 1 1 0 0
0 0 1 1 1
|
Od strony matematycznej to zabieg czysto kosmetyczny, niczego nie zmieniający.
Na podstawie definicji implikacji odwrotnej mamy teraz:
p<=q = p~>q = p+~q - definicja implikacji odwrotnej
gdzie na mocy definicji:
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
czyli:
~> = <= - jeśli operator <= będzie czytany przeciwnie do strzałki jako spójnik „może” z warunkiem koniecznym.
… i po bólu, koniec pozornego paradoksu.
Oczywiście funkcja implikacji prostej p=>q na mocy definicji to zupełnie co innego niż funkcja implikacji odwrotnej p~>q, zatem wprowadzenie nowego operatora ~> jest tu konieczne, aby nie było potwornego bałaganu i możliwych niejednoznaczności np.
P8=>P2 = P2<=P8
Powyżej nie wiadomo o co chodzi bo to może być zarówno operator implikacji prostej (czytamy zgodnie ze strzałką jako „musi”), jak i operator implikacji odwrotnej (czytamy przeciwnie do strzałki jako „może”), natomiast niżej mamy 100% matematyczną jednoznaczność:
P2~>P8 = P8<~P2
tu bez problemu odczytamy zapisane symbolicznie zdanie:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8 = P8<~P2
Implikacja odwrotna prawdziwa bo P2 jest konieczne dla P8.
Bardzo ciekawa jest interpretacja operatora implikacji odwrotnej <= czytanego przeciwnie do strzałki w groźbach i obietnicach.
Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N - implikacja prosta, bo dobrowolnych obietnic musimy dotrzymywać
Definicja groźby:
Jeśli dowolny warunek to kara
W<=K - implikacja odwrotna, bo każdą karę nadawca ma prawo darować
Mamy zatem:
W=>N - ja tego chcę, biegnę do nagrody
W<=K - ja tego nie chcę, uciekam od kary
czyli są to dwie przeciwstawne logiki, jedna dodatnia druga ujemna, która jest która to rzecz gustu. Karę od nagrody każde żywe stworzenie musi odróżniać bo to warunek przetrwania.
Zauważmy, że bez implikacji odwrotnej <= będziemy mieli tak:
W=>N - ja tego chcę, biegnę do nagrody
W=>K - ja tego chcę, biegnę do kary
W przełożeniu na świat przyrody będzie to oznaczało że np. foka nie będzie odróżniała ryby (pożywienie) od śmiertelnego wroga (rekina), do obu tych stworzeń będzie sobie płynęła merdając ogonkiem.
12.0 Podsumowanie
Ten punkt zawiera esencję wszystkiego co należy zapamiętać, dalej mamy logikę przedszkolaka.
Z przymrużeniem oka … czyli matematyczna historia powstania naszego Wszechświata.
Na początku było:
1=1
i stał się cud:
(p+~p)=(q+~q)
p+~p=1 - prawo algebry Boole’a
czyli:
p=>(q+~q)
~p=>(~q+q)
Równoważność:
Kod: |
p q p<=>q
p=> q =1
p=>~q =0
~p=>~q =1
~p=> q =0
|
W naszym Wszechświecie zdecydowanie przeważa implikacja, zatem ostatnie dwie linie ulegają rozczepieniu:
Operatorowa definicja implikacji prostej:
Kod: |
p q p=>q
p=> q =1
p=>~q =0
~p~>~q =1
~p~~>q =1
|
lub pierwsze dwie linie z definicji równoważności ulegają rozczepieniu:
Operatorowa definicja implikacji odwrotnej:
Kod: |
p q p~>q
p~> q =1
p~~>~q =1
~p=> ~q =1
~p=> q =0
|
Spójniki zdaniowe:
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Prawa Kubusia:
p=>q = ~p~>~q - prawo zamiany operatora => na ~>
p~>q = ~p=>~q - prawo zamiany operatora ~> na =>
12.1 Geneza zero-jedynkowych tabel operatorów logicznych
Zero-jedynkowe tabele operatorów logicznych generuje naturalna logika człowieka, nigdy odwrotnie. Błędem jest zatem twierdzenie dzisiejszych logików (KRZ), jakoby logika polegała na analizie wszystkich możliwych śmieci i dopasowywaniu do nich tabel zero-jedynkowych.
Dowód:
W definicjach operatorowych opuszczamy operatory oraz przyjmujemy:
p=1, ~p=0
q=1, ~q=o
stąd otrzymujemy.
Zero-jedynkowa definicja równoważności:
Kod: |
p q p<=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =0
|
Zero-jedynkowa definicja implikacji prostej:
Kod: |
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Zero-jedynkowa definicja implikacji odwrotnej:
Kod: |
p q p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
CND
Ostatnio zmieniony przez rafal3006 dnia Wto 6:21, 01 Wrz 2009, w całości zmieniany 16 razy
|
|
Powrót do góry |
|
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35368
Przeczytał: 20 tematów
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Pon 7:50, 07 Wrz 2009 Temat postu: |
|
|
Cytat z:
[link widoczny dla zalogowanych]
szewciu napisał: | Zdanie (1101)bin=13dec jest prawdziwe wtedy i tylko wtedy, gdy zdanie (111001)+(1110)=(1000111) jest prawdziwe. Z góry dziękuję za pomoc i pozdrawiam. |
jarzabek89 napisał: | hubertwojtowicz, nieprawda wartość logiczna tego wyrażenia to fałsz, czy jak kto lubi 0.
(1101) w systemie binarnym jest zawsze równe 13 w systemie dziesiętnym. Nie tylko i wyłącznie gdy coś tam, tylko zawsze. |
Z punktu widzenia naturalnej logiki człowieka Jarząbek ma tu rację ...
Matematyczny opis naturalnej logiki człowieka jest w podpisie.
P.S.
Z punktu odniesienia logiki formalnej (KRZ) będzie tu oczywiście jedynka. To jest przykład rozjazdu naturalnej logiki człowieka z logika formalną - Klasycznym Rachunkiem Zdań.
Ostatnio zmieniony przez rafal3006 dnia Pon 17:39, 21 Wrz 2009, w całości zmieniany 2 razy
|
|
Powrót do góry |
|
|
|
|
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach
|
fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
|