|
ŚFiNiA ŚFiNiA - Światopoglądowe, Filozoficzne, Naukowe i Artystyczne forum - bez cenzury, regulamin promuje racjonalną i rzeczową dyskusję i ułatwia ucinanie demagogii. Forum założone przez Wuja Zbója.
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35331
Przeczytał: 23 tematy
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Nie 11:35, 23 Sty 2011 Temat postu: Algebra Kubusia - Nowa Teoria Implikacji v.beta 1.0 |
|
|
… wszystko co chcecie, żeby ludzie wam czynili, wy też im podobnie czyńcie …
Ewangelia Mateusza 7:12
Algebra Kubusia
Nowa Teoria Implikacji
Autor: Kubuś - wirtualny Internetowy Miś
Naszym dzieciom dedykuję
Najważniejsze zastosowanie algebry Kubusia:
Algebra Kubusia w służbie lingwistyki
W pracach nad teorią implikacji bezcennej pomocy udzielili Kubusiowi przyjaciele:
Barycki (śfinia), Emde (sfinia), Fizyk (ateista.pl), Gavrila_Ardalionovitch (ateista.pl), HeHe (ateista.pl), Idiota (ateista.pl), Irbisol (sfinia), Krowa (śfinia), Makaron czterojajeczny (sfinia), Macjan (sfinia), Miki (sfinia), NoBody (ateista.pl), Rafał3006 (sfinia), Rexerex (ateista.pl), Rogal (matematyka.pl), Sogors (ateista.pl), Słupek (ateista.pl), tomektomek (ateista.pl), Uczy (wolny), Volrath (sfinia), Windziarz (ateista.pl), WujZbój (sfinia), Wyobraźnia (ateista.pl), zbigniewmiller (sfinia) i inni
Wielkie dzięki, Kubuś !
Szczególne podziękowania Wujowi Zbójowi za jego nieskończoną cierpliwość w dyskusjach z Kubusiem, Vorathowi za decydującą o wszystkim dyskusję, Fizykowi i Windziarzowi za inspirację do napisania końcowej wersji algebry Kubusia oraz Sogorsowi za postawienie kropki nad „i”.
Kim jest Kubuś ?
Kubuś - wirtualny Internetowy Miś, wysłannik obcej cywilizacji, którego zadaniem było przekazanie ludziom tajemnicy implikacji.
Wstęp:
W naturalnym języku mówionym każdy człowiek, od 5-cio latka po starca, biegle posługuje się matematyką ścisłą, algebrą Kubusia. To jest matematyka pod którą człowiek podlega a nie którą tworzy. Dzięki niej język człowieka nie jest chaotyczny, człowiek z człowiekiem może się porozumieć. Algebra Kubusia jest nieprawdopodobnie prosta, jej naturalnymi ekspertami są wszystkie dzieci w przedszkolu. Cała filozofia prostoty to akceptacja przez matematyków banalnej logiki dodatniej i ujemnej w algebrze Boole’a.
Algebra Kubusia jest odpowiednikiem języka asemblera ze świata mikroprocesorów, operuje na równaniach algebry Boole’a, zmiennych binarnych i stałych w zapisie symbolicznym a nie na zerach i jedynkach, jak to jest w dzisiejszej logice.
W całej publikacji będziemy używać zamiennie:
Nowa Teoria Implikacji = algebra Kubusia
Spis treści:
1.0 Notacja
1.1 Definicje algebry Kubusia = pełna lista legalnych operatorów logicznych
1.2 Operatory OR i AND
1.3 Definicje implikacji i równoważności
2.0 Nowa Teoria Implikacji w pigułce
2.1 Algebra Kubusia w przedszkolu
2.2 Prawo Prosiaczka
2.3 Operatory OR i AND
2.4 Równanie ogólne dla operatorów AND i OR
2.5 Operatory implikacji i równoważności
2.6 Równanie ogólne dla operatorów implikacji
2.7 Nieznane definicje implikacji i równoważności, wynikające z NTI
2.8 Znaczenie zdania „Jeśli…to…” w logice
3.0 Zero-jedynkowa algebra Boole’a
3.1 Prawa wynikające z definicji iloczynu logicznego
3.2 Prawa wynikające z definicji sumy logicznej
3.3 Najważniejsze prawa algebry Boole’a
3.4 Fundamenty algebry Boole’a
3.5 Aksjomatyczne definicje operatorów logicznych w algebrze Boole’a i NTI
3.6 Abstrakcyjny model operatora logicznego
3.7 operatory logiczne FILL i NOP
3.8 Operatory P i Q
3.9 Operatory negacji NP i NQ
4.0 Algebra Kubusia w tabelach zero-jedynkowych
4.1 Suma logiczna OR
4.2 Iloczyn logiczny AND
4.3 Operatory implikacji
4.4 Definicje implikacji w NTI
4.5 Dowód wewnętrznej sprzeczności KRZ dla zdania wypowiedzianego p=>q
4.6 Dowód wewnętrznej sprzeczności KRZ dla zdania wypowiedzianego p~>q
4.7 Podsumowanie dowodu wewnętrznej sprzeczności KRZ
5.0 Fantastycznie prosta algebra Kubusia
5.1 Rzeczywista budowa operatorów OR i AND
5.2 Definicje zero-jedynkowe spójników w implikacji
5.3 Rzeczywista budowa operatorów implikacji i równoważności
6.0 Algebra Kubusia w zbiorach
6.1 Podstawowe definicje z teorii zbiorów w NTI
6.2 Implikacja prosta w zbiorach
6.3 implikacja odwrotna w zbiorach
6.4 Równoważność w zbiorach
6.5 Naturalny spójnik „może’ ~~> w zbiorach
7.0 Błędne użycie symboli „=” i <=> w KRZ
1.0 Notacja
1 = prawda
0 = fałsz
* - symbol iloczynu logicznego (AND), w mowie potocznej spójnik 'i'
+ - symbol sumy logicznej (OR), w mowie potocznej spójnik "lub"
~ - przeczenie, negacja (NOT), w mowie potocznej "NIE"
~(...) - w mowie potocznej "nie może się zdarzyć że ...", "nie prawdą jest że ..."
<=> - symbol równoważności
Twarda prawda/fałsz - zachodzi zawsze, bez żadnych wyjątków (warunek wystarczający =>)
Miękka prawda/fałsz - może zajść, ale nie musi (warunek konieczny ~>)
Kolejność wykonywania działań: nawiasy, AND(*), OR(+), =>, ~>
W algebrze Kubusia mamy do dyspozycji zaledwie dwie cyferki o znaczeniu jak niżej:
1 = prawda
0 = fałsz
To zero i jeden ty tylko symbole o znaczeniu jak wyżej, nie mające nic wspólnego z liczbami całkowitymi 0 i 1 w rozumieniu klasycznej matematyki.
1+1=2 – klasyka, która rozumieją wszyscy
1+1=1 – logika, zaprzeczenie klasycznej matematyki
Poza powyższym wyjątkiem wszystko inne pokrywa się z intuicyjnym rozumieniem działań w matematyce klasycznej:
0+0=0
0+1=1
0*0=0
0*1=1
1*1=1
Z powyższego powodu w tej publikacji będziemy używać notacji zaczerpniętej z teorii układów cyfrowych.
+ - suma logiczna OR(+), spójnik „lub” z naturalnego języka mówionego
* - iloczyn logiczny AND(*), spójnika „i” z naturalnego języka mówionego
Definicja negacji:
1=~0
0=~1
Zmienna binarna
Zmienna binarna to zmienna, mogąca przyjmować w osi czasu wyłącznie dwie wartości logiczne 0 albo 1.
Nazwa zmiennej binarnej to dowolny symbol (litera alfabetu lub słowo) z wyjątkiem litery Y zwyczajowo zarezerwowanej dla funkcji logicznej.
Funkcja logiczna
Funkcja logiczna Y to funkcja n-zmiennych binarnych połączonych operatorami AND(*) lub OR(+).
Przykład:
Y = A*(B+C)
Symboliczna definicja negacji:
Y=~A
gdzie:
A - zmienna binarna
Y - funkcja logiczna
# - różne
Fundament algebry Boole’a w teorii zero-jedynkowej:
1=prawda
0=falsz
A.
1#0
Prawda # fałsz
Fundament symbolicznej algebry Boole’a (algebry Kubusia) w zmiennych binarnych:
Y=prawda
~Y=fałsz
B.
Y # ~Y
prawda # fałsz
co matematycznie oznacza:
C.
Y=1 # ~Y=1
Zauważmy, że to jedyny poprawny sposób zapisania B w taki sposób, aby było widać zmienne Y i ~Y po obu stronach znaku #.
Oczywiście równanie C możemy zapisać tak:
Jeśli ~Y=1 to Y=0
stąd:
D.
Y=1 # ~Y=1 = Y=0
czyli:
E.
Y=1 # Y=0
gdzie:
1=prawda
0=fałsz
Zauważmy jednak, że de facto wylądowaliśmy w zero-jedynkowej algebrze Boole’a (A) a nie symbolicznej algebrze Boole’a (C), że tych zer i jedynek z równania E nie sposób się pozbyć.
Zauważmy, że wszelkie prawa algebry Boole’a podawane są w równaniach algebry Boole’a gdzie nie ma najmniejszego śladu bezwzględnych zer i jedynek np.
A.
Y=p+q
Matematycznie:
Y=1 <=> p=1 lub q=1
Przejście do logiki przeciwnej poprzez wymianę operatorów i negację zmiennych
B.
~Y=~p*~q
Matematycznie:
~Y=1 <=> ~p=1 i ~q=1
Gdzie:
Y – funkcja logiczna w logice dodatniej (bo Y – brak przeczenia)
~Y – funkcja logiczna w logice ujemnej (bo ~Y – jest przeczenie)
Oczywiście matematycznie zachodzi:
Y=1 # ~Y=1
Y # ~Y
bo to dwie przeciwne logiki
Matematyczny związek logiki dodatniej i ujemnej:
Y = ~(~Y)
Podstawiając A i B mamy prawo de’Morgana:
p+q = ~(~p*~q)
Co matematycznie oznacza:
p=1 lub q=1 = ~(~p=1 i ~q=1)
Przykład:
Jutro pójdę do kina lub do teatru
Y=K+T
co matematycznie oznacza:
Dotrzymam słowa (Y=1) <=> pójdę do kina (K=1) lub do teatru (T=1)
Y=K+T
czyli:
Y=1 <=> K=1 lub T=1
Prawo de’Morgana:
Y = K+T = ~(~K*~T)
Stąd zdanie równoważne:
Nie może się zdarzyć ~(…), że jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
Y=~(~K*~T)
czyli:
Y=1 <=> ~(~K=1 i ~T=1)
Świętość algebry Kubusia:
1 = prawda
0 = fałsz
Zawsze i wszędzie, niezależnie od tego czy jest to logika dodatnia czy też ujemna
Przykład użycia zmiennych binarnych w przeciwnych logikach w równaniu algebry Boole’a:
Y=A+~A*B
Matematycznie oznacza to::
Y=1 <=> A=1 lub (~A=1 i B=1)
## - różne na mocy definicji
A.
Na mocy definicji zero-jedynkowych implikacji prostej => i odwrotnej ~> mamy:
p=>q=~p~>~q=1 ## p~>q=~p=>~q=1
bo to dwie fundamentalnie inne tabele zero-jedynkowe.
B.
Na mocy definicji zero-jedynkowych operatorów OR(+) i AND(*) mamy:
p+q=~(~p*~q)=1 ## p*q=~(~p+~q)=1
bo to dwie fundamentalnie inne tabele zero-jedynkowe.
W tym przypadku parametry formalne p i q po lewej stronie nie mają żadnego związku matematycznego z parametrami formalnymi p i q po prawej stronie.
Po obu stronach znaku ## pod parametry formalne możemy podstawić cokolwiek.
W implikacji mamy zatem taki przypadek:
P8=>P2=~P8~>~P2=1 ## P2~>P8=~P2=>~P8=1
1.1 Definicje algebry Kubusia = pełna lista legalnych operatorów logicznych
Zero-jedynkowo wszystkie operatory logiczne znane są człowiekowi od około 200 lat, jednak nie wszystkie zostały poprawnie zinterpretowane.
Pełna lista dwuargumentowych operatorów logicznych.
Kod: |
p q OR NOR AND NAND <=> XOR => N(=>) ~> N(~>) FILL NOP P NP Q NQ
0 0 0 1 0 1 1 0 1 0 1 0 1 0 0 1 0 1
0 1 1 0 0 1 0 1 1 0 0 1 1 0 0 1 1 0
1 0 1 0 0 1 0 1 0 1 1 0 1 0 1 0 0 1
1 1 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0
|
Kod: |
Logika dodatnia Logika ujemna
OR NOR
AND NAND
<=> XOR
=> N(=>)
~> N(~>)
FILL NOP
P NP
Q NQ
|
Wszystkich możliwych operatorów logicznych jest 16 z czego człowiek zna poprawne znaczenie zaledwie sześciu: AND, NAND, OR, NOR, <=>, XOR. Za operatory dodatnie przyjęto te, które człowiek używa w naturalnym języku mówionym. Wyjątkiem jest tu operator XOR, w języku mówionym spójnik „albo”.
Operator ujemny to zanegowany operator dodatni, co doskonale widać w powyższej tabeli.
Operator dodatni to zanegowany operator ujemny, co również widać wyżej.
Kod: |
Definicje operatorów ujemnych:
pNORq = ~(p+q)
pNANDq = ~(p*q)
pXORq = ~(p<=>q)
pN(=>)q = ~(p=>q)
pN(~>)q = ~(p~>q)
pNOPq = ~(pFILLq)
pNPq = ~(pPq)
pNQq = ~(pQq)
|
W języku mówionym operatory ujemne nie są używane, ponieważ łatwo je zastąpić operatorami dodatnimi plus negacją co widać w powyższej tabeli.
1.2 Operatory OR i AND
Definicja operatora OR:
Kod: |
p q Y=p+q
Dotrzymam słowa (Y), logika dodatnia bo Y:
Y=p+q = p*q+p*~q+~p*q
1 1 =1 /Y=p*q
1 0 =1 /Y=p*~q
0 1 =1 /Y=~p*q
Skłamię (~Y), logika ujemna bo ~Y:
~Y=~p*~q
0 0 =0 /~Y=~p*~q
|
Wnioski:
1.
Definicja operatora OR to złożenie spójników „lub” w logice dodatniej ze spójnikiem „i” w logice ujemnej
2.
Spójnik logiczny to fundamentalnie co innego niż operator logiczny
3.
Prawo de’Morgana zachodzi w jednej i tej samej definicji zero-jedynkowej.
Prawo de’Morgana:
p+q = ~(~p*~q)
to definicja operatora OR zapisana w równaniu algebry Boole’a !
Definicja operatora AND:
Kod: |
p q Y=p*q
Dotrzymam słowa (Y), logika dodatnia bo Y:
Y=p*q
1 1 =1 /Y=p*q
Skłamię (~Y), logika ujemna bo ~Y:
~Y=~p+~q = ~p*~q+~p*q+p*~q
0 0 =0 /~Y=~p*~q
0 1 =0 /~Y=~p*q
1 0 =0 /~Y=p*~q
|
Wnioski:
1.
Definicja operatora AND to złożenie spójników „i” w logice dodatniej ze spójnikiem „lub” w logice ujemnej
2.
Spójnik logiczny to fundamentalnie co innego niż operator logiczny
3.
Prawo de’Morgana zachodzi w jednej i tej samej definicji zero-jedynkowej.
Prawo de’Morgana:
p*q = ~(~p+~q)
to definicja operatora AND zapisana w równaniu algebry Boole’a !
1.3 Definicje implikacji i równoważności
Implikacja odwrotna
Definicja warunku koniecznego autorstwa wykładowcy logiki Volratha:
Jeśli p jest konieczne dla q to zajście ~p wystarcza dla zajścia ~q
Stąd w sposób naturalny mamy prawo Kubusia:
p~>q = ~p=>~q
… i definicję implikacji odwrotnej !
Definicja implikacji odwrotnej:
Kod: |
p~>q=1
1 1 =1
p~~>~q=1
1 0 =1
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q
~p=>~q=1
0 0 =1
~p=>q=0
0 1 =0
|
p~>q
Jeśli zajdzie p to może ~> zajść q
Plus musi być spełniona wyrocznia implikacji, prawo Kubusia:
p~>q = ~p=>~q
gdzie:
~> - spójnik „może” ze spełnionym warunkiem koniecznym (prawem Kubusia)
~~> - naturalny spójnik „może”, wystarczy jedna prawda, warunek konieczny tu nie zachodzi
Z powyższego wynika że:
1.
Warunek konieczny (spójnik „może” ~>) = definicja implikacji odwrotnej
2.
Definicja zero-jedynkowa naturalnego „może” ~~>, wystarczy jedna prawda.
3.
Operator implikacji odwrotnej to złożenie spójnika „może” ~> w logice dodatniej (bo q - niezanegowane) ze spójnikiem „musi” => w logice ujemnej (bo ~q - zanegowane)
p~>q = ~p=>~q – prawo Kubusia
stąd:
Prawo Kubusia = definicja implikacji odwrotnej w równaniu algebry Boole’a
Implikacja prosta
Analogiczna definicja implikacji prostej:
Kod: |
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p=>q = ~p~>~q
~p~>~q=1
0 0 =1
~p~~>q=1
0 1 =1
|
p=>q
Jeśli zajdzie p to musi zajść q
Plus dodatkowo musi być spełniona wyrocznia implikacji, prawo Kubusia:
p=>q = ~p~>~q
Wnioski:
1.
Operator implikacji prostej to złożenie spójnika „musi” => w logice dodatniej (bo q) ze spójnikiem „może” ~> w logice ujemnej (bo ~q)
p=>q = ~p~>~q – prawo Kubusia
stąd:
Prawo Kubusia = definicja implikacji prostej w równaniu algebry Boole’a
2.
Operator implikacji prostej => to fundamentalnie co innego niże spójniki „musi” => i „może” ~>
Równoważność
Aksjomatyczna definicja zero-jedynkowa równoważności:
Kod: |
p<=>q = (p=>q)*(~p=>~q)
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
… a jeśli nie zajdzie p ?
~p<=>~q=(~p=>~q)*(p=>q)
~p=>~q=1
0 0 =1
~p=>q=0
1 0 =0
|
Dziewicza definicja równoważności na podstawie powyższej tabeli:
p<=>q = (p=>q)*(~p=>~q) = 1*1=1
p zajdzie wtedy i tylko wtedy gdy zajdzie q
Wnioski:
1.
Równoważność to złożenie warunku wystarczającego w logice dodatniej (bo q) i kolejnego warunku wystarczającego w logice ujemnej (bo ~q)
W równoważności (i tylko tu) prawdziwe jest prawo kontrapozycji w tej formie:
~p=>~q =q=>p
stąd mamy odprysk definicji równoważności uwielbiany przez matematyków:
p<=>q = (p=>q)*(q=>p)
Gdzie po prawej stronie mamy definicje warunków wystarczających o definicji zero-jedynkowej:
Kod: |
p=>q =1
1 1 =1
p=>~q=0
1 0 =0
|
Warunek wystarczający definiowany jest zaledwie dwoma liniami tabeli zero-jedynkowej.
p=>q
Jeśli zajdzie p to musi zajść q
Z czego wynika że kolejna linia nie ma prawa wystąpić czyli:
p=>~q=0
z czego wynika że p musi być wystarczające dla q
2.
Symboliczna definicja implikacji prostej
p=>q = ~p~>~q – prawo Kubusia
Symboliczna definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)
Zauważmy że warunek wystarczający p=>q (wytłuszczony) jest identyczny w równoważności i implikacji, bez analizy matematycznej to jest nie do rozróżnienia.
W naturalnym języku mówionym człowiek wypowiada wyłącznie warunek wystarczający (spójnik „musi” =>) o definicji zero-jedynkowej jak wyżej. Warunek wystarczający, w przeciwieństwie do warunku koniecznego istnieje samodzielnie tzn. do jego definicji wystarczają zaledwie dwie linie tabeli zero-jedynkowej jak wyżej.
3.
Twierdzenie Rexerexa:
Jeśli równoważność jest udowodniona to zachodzi wszystko co tylko możliwe:
p=>q = p<=>q = (p=>q)*(~p=>~q) = ~p<=>~q = ~p=>~q = (p=>q)*(q=>p) = q=>p itd.
Gdzie zapisy typu:
p=>q, q=>p, ~p=>~q
to tylko i wyłącznie warunki wystarczające o definicji jak wyżej, to nie są implikacje proste !
2.0 Nowa Teoria Implikacji w pigułce
Istota NTI:
1.
Użyty spójnik logiczny oraz analiza symboliczna zdania przez wszystkie możliwe przeczenia p i q decyduje o tym czym jest wypowiedziane zdanie.
2.
Determinizm, czyli z góry znane wartości logiczne p i q zabija wszystko, zarówno definicję OR i AND, jak i definicje implikacji i równoważności.
Istota NTI to działanie na równaniach algebry Boole’a a nie na tabelach zero-jedynkowych.
Twierdzenie 1
Każdą tabele zero-jedynkową można zapisać w równaniu algebry Boole’a i odwrotnie, z każdego równania algebry Boole’a można wygenerować równoważną tabelę zero-jedynkową
Twierdzenie 2
Dowolną tabelę zero-jedynkową która w wyniku nie ma samych jedynek (operator FILL) albo samych zer (operator NOP) i nie jest operatorem jednoargumentowym (P, Q, NP., NQ) można zapisać przy pomocy n równoważnych równań algebry Boole’a gdzie:
n=8 – dla dowolnej tabeli opisanej operatorami AND i OR
n=2 – dla opisu definicji implikacji i równoważności operatorami implikacji i równoważności
Definicje implikacji to prawa Kubusia:
p=>q = ~p~>~q – definicja implikacji prostej p=>q w równaniu algebry Boole’a
n1=p=>q
n2=~p~>~q
p~>q = ~p=>~q – definicja implikacji odwrotnej ~> w równaniu algebry Boole’a
n1=p~>q
n2=~p=>~q
Stąd n=2
Definicja równoważności:
p<=>q = ~p<=>~q = (p=>q)*(~p=>~q) – definicja równoważności w równaniu algebry Boole’a
n1=p<=>q = (p=>q)*(~p=>~q)
n2=~p<=>~q = (~p=>~q)*(p=>q)
stąd n=2
gdzie:
p=>q, ~p=>~q – warunki wystarczające, to nie są implikacje proste.
W naturalnym języku mówionym każdy 5-cio latek operuje biegle równaniami algebry Boole’a, dzięki czemu to samo może wyrazić na wiele różnych sposobów.
2.1 Algebra Kubusia w przedszkolu
Przyjrzyjmy się bliżej matematyce, którą posługuje się każdy przedszkolak.
Jutro pójdę do kina lub do teatru
Y=K+T
Matematycznie:
Dotrzymam słowa (Y=1) jeśli jutro pójdę do kina (K=1) lub do teatru (T=1)
Y=K+T
czyli:
Y=1 <=> K=1 lub T=1
Dotrzymam słowa (Y) gdy którakolwiek zmienna (K lub T) zostanie ustawiona na 1
… a kiedy skłamię ?
Skłamię (~Y=1) jeśli jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y = ~K*~T
czyli:
~Y=1 <=> ~K=1 i ~T=1
Skłamię (~Y) gdy obie zmienne (~K i ~T) zostaną ustawione na 1
Koniec !
To jest cała matematyka, którą każdy człowiek od przedszkolaka po profesora używa milion razy na dobę. Jak widać mózg przedszkolaka na pytanie „Kiedy skłamię ?” odpowiada w logice ujemnej.
Definicja logiki ujemnej w operatorach AND i OR:
Logika dodatnia (Y) to odpowiedź na pytanie kiedy dotrzymam słowa (wystąpi prawda), zaś logika ujemna (~Y) to odpowiedź na pytanie kiedy skłamię (wystąpi fałsz).
Związek logiki dodatniej z logika ujemną opisuje równanie:
Y = ~(~Y) - prawo podwójnego przeczenia
Nietrudno zauważyć, jak mózg dziecka przechodzi z logiki dodatniej (Y) do logiki ujemnej (~Y), po prostu neguje wszystkie zmienne i wymienia operator na przeciwny. Nietrudno też się domyśleć, że to jest poprawny sposób przejścia do logiki ujemnej dla dowolnie długiej funkcji logicznej.
Metoda przedszkolaka:
Przejście z logiki dodatniej (Y) do ujemnej (~Y) lub odwrotnie uzyskujemy negując wszystkie zmienne i wymieniając operatory na przeciwne.
Przykład:
A: Y=A+(~B*C)
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne:
B: ~Y = ~A*(B+~C)
Związek logiki dodatniej i ujemnej:
C: Y=~(~Y) - prawo podwójnego przeczenia
Podstawiając A i B do C mamy prawo de’Morgana.
A+(~B*C) = ~[~A*(B+~C)]
Łatwo zauważyć, że z prawa de’Morgana mózg dziecka praktycznie nigdy nie korzysta … chyba że w fazie poznawania języka, kiedy to dwulatek zadaje wszelkie możliwe pytania.
Popatrzmy na to jeszcze raz, delektując się genialną matematyką która posługuje się każde dziecko.
A.
Jutro pójdę do kina lub do teatru
Y=K+T
Matematycznie:
Dotrzymam słowa (Y=1) jeśli jutro pójdę do kina (K=1) lub do teatru (T=1)
Y=K+T
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne:
B.
Skłamię (~Y=1) jeśli jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y = ~K*~T
Już dziecko pięcioletnie nie będzie zadawało więcej pytań bo wszystko jest jasne, trzylatek może jednak kontynuować.
… a czy może się zdarzyć, że jutro nie pójdę do kina i nie pójdę do teatru ?
Ostatnie zdanie w dialogu:
~Y=~K*~T
Negujemy dwustronnie i mamy odpowiedź na temat, czyli zgodną z zadanym pytaniem.
Y=~(~K*~T)
Nie może się zdarzyć ~(…), że jutro nie pójdę do kina i nie pójdę do teatru
Na powyższe pytanie można odpowiedzieć inaczej:
Jutro na pewno pójdę do kina lub do teatru
Y=K+T
Jednak nie będzie to ścisła odpowiedź na zadane pytanie, dlatego mało kto tak odpowie.
2.2 Prawo Prosiaczka
Prawo Prosiaczka mówi o sposobie przejścia z tabeli zero-jedynkowej n-elementowej do równania algebry Boole’a opisującego tą tabelę.
Definicja zero-jedynkowa sumy logicznej:
Kod: |
p q Y=p+q
1 1 =1
1 0 =1
0 1 =1
0 0 =0
|
Kubuś, nauczyciel logiki w I klasie LO w stumilowym lesie:
Kto potrafi z powyższej tabeli zero-jedynkowej wygenerować równanie algebry Boole’a ?
Wszystkie ręce w górze, do tablicy podchodzi Jaś:
W ostatniej linii w wyniku mamy samotne zero, zatem dla tej linii możemy zapisać najprostsze równanie.
Z tabeli widzimy że:
A.
Y=0 <=> p=0 i q=0
Przejście z takiego zapisu do równań algebry Boole’a jest banalne. Należy skorzystać z definicji iloczynu logicznego sprowadzając wszystkie zmienne do jedynki albo z definicji sumy logicznej sprowadzając wszystkie zmienne do zera.
Sposób I.
Sprowadzam wszystkie zmienne do jedynki dzieli czemu w równaniu algebry Boole’a możemy się pozbyć bezwzględnych zer i jedynek:
B.
Y=0 czyli ~Y=1
p=0 czyli ~p=1
q=0 czyli ~q=1
Definicja iloczynu logicznego (logika dodatnia):
Iloczyn logiczny jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Y=p*q
Y=1 <=> p=1 i q=1
Korzystając z A i B na podstawie tej definicji mamy:
~Y = ~p*~q
Przechodzimy do logiki przeciwnej metodą przedszkolaka negując wszystkie zmienne i wymieniając operator AND(*) na OR(+):
Y = p+q
Sposób II
Sprowadzamy wszystkie zmienne do zera i stosujemy definicję sumy logicznej.
Definicja sumy logicznej (logika ujemna):
Suma logiczna jest równa zeru wtedy i tylko wtedy gdy wszystkie składniki sumy są równe zeru
Y=p+q
Y=0 <=>p=0 i q=0
Zauważmy, że mamy tu niezgodność zapisu z naturalną logiką człowieka.
W równaniu algebry Boole’a mamy OR(+) - spójnik „lub”:
Y=p+q
natomiast w szczegółowej rozpisce mamy AND(*) - spójnik „i”:
Y=0 <=>p=0 i q=0
dlatego to jest logika ujemna.
W równaniu A wszystkie zmienne są równe zeru, zatem tu nic nie musimy robić, od razu mamy równanie algebry Boole’a dla powyższej tabeli zero-jedynkowej.
Y=p+q
Kubuś:
Jasiu, zapisałeś równanie algebry Boole’a wyłącznie dla ostatniej linii, skąd wiesz jakie będą wartości logiczne w pozostałych liniach, nie opisanych tym równaniem ?
Prawo Prosiaczka:
Równania algebry Boole’a dla dowolnej tabeli zero-jedynkowej n-elementowej tworzymy na podstawie linii z tą samą wartością logiczną w wyniku. Wszelkie nie opisane równaniem linie przyjmą wartości przeciwne do linii opisanych.
Powyżej ułożyliśmy równanie wyłącznie dla ostatniej linii tabeli gdzie w wyniku było zero, wszelkie pozostałe linie, zgodnie z prawem Prosiaczka muszą być jedynkami niezależnie od chciejstwa człowieka … bo to jest matematyka przecież.
Kubuś:
Z tego co mówisz wynika, że dla powyższej tabeli można ułożyć równoważne równania dla linii z jedynkami w wyniku, czy potrafisz je zapisać ?
Jaś:
Postępujemy identycznie jak wyżej !
Korzystnie jest tu przejść do tabeli symbolicznej w logice dodatniej przyjmując:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
Stąd mamy definicję sumy logicznej w wersji symbolicznej:
Kod: |
Dotrzymam słowa (Logika dodatnia bo Y) gdy:
Y=p+q = p*q+p*~q+~p*q
p* q = Y /1 1 =1
p*~q = Y /1 0 =1
~p* q = Y /0 1 =1
Skłamię (logika ujemna bo ~Y) gdy:
~p*~q =~Y /0 0 =0
|
Stąd równoważne równanie algebry Boole’a dla samych jedynek (Y) przybierze postać:
C.
Y=p+q = (p*q)+(p*~q)+(~p*q)
Z powyższym równaniem możemy przejść do logiki ujemnej negując sygnały i wymieniając operatory na przeciwne.
D.
~Y = ~p*~q = (~p+~q)*(~p+q)*(p+~q)
Negujemy stronami przechodząc do logiki dodatniej:
Y = ~[~p*~q] = ~[(~p+~q)*(~p+q)*(p+~q)]
Z powyższego wynika że to samo zdanie:
Y=p+q
możemy wypowiedzieć na wiele różnych sposobów.
W naturalnym języku mówionym najczęściej używamy formy najprostszej jak wyżej. Część z możliwych zdań równoważnych będzie dla człowieka trudno zrozumiała.
Przykład:
A1.
Jutro pójdę do kina lub do teatru
Y=K+T
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów.
A2.
Skłamię (~Y=1) gdy jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y=~K*~T
związek logiki dodatniej i ujemnej:
Y=~(~Y)
stąd:
Y = K+T = ~(~K*~T)
A3.
Nie może się zdarzyć, że jutro nie pójdę do kina i nie pójdę do teatru
Y = K+T = ~(~K*~T)
A4.
Wyłącznie negujemy równanie A1:
~Y = ~(K+T)
Skłamię (~Y) jeśli nie zdarzy się ~(…), że jutro pójdę do kina lub do teatru
Analogiczną serie zdań otrzymamy dla równań równoważnych ułożonych dla jedynek w definicji zero-jedynkowej sumy logicznej.
B1.
Y=K+T = K*T+K*~T+~K*T
czyli:
Dotrzymam słowa, jeśli wystąpi którekolwiek zdarzenie:
K*T – byłem w kinie i w teatrze
K*~T – byłem w kinie i nie byłem w teatrze
~K*T – nie byłem w kinie i byłem w teatrze
Oczywiście wyłącznie jedno z powyższych zdarzeń ma szansę wystąpić w rzeczywistości.
… a kiedy skłamię ?
Przejście ze zdaniem B1 do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne:
B2.
~Y = (~K+~T)*(~K+T)*(K+~T)
Negujemy dwustronnie i mamy kolejne możliwe zdanie:
B3.
Y = ~[(~K+~Y)*(~K+T)*(K+~T)]
Ostatnie możliwe zdanie otrzymujemy negując dwustronnie B1:
B4.
~Y= ~[(K*T)+(K*~T)+(~K*T)]
Mamy wyżej fantastyczną możliwość powiedzenia tego samego na wiele różnych sposobów. Wszystkie zdania z wyjątkiem B2 i B3 są dla przeciętnego człowieka zrozumiałe !
Zdania B2 i B3 to rozbudowane zdania ze zmiennymi w logice ujemnej w stosunku do zdania wypowiedzianego A1.
2.3 Operatory OR i AND
Definicja operatora OR:
Kod: |
p q Y=p+q
Dotrzymam słowa (Y), logika dodatnia bo Y:
Y=p+q = p*q+p*~q+~p*q
1 1 =1 /Y=p*q
1 0 =1 /Y=p*~q
0 1 =1 /Y=~p*q
Skłamię (~Y), logika ujemna bo ~Y:
~Y=~p*~q
0 0 =0 /~Y=~p*~q
|
Przykład:
Jutro pójdę do kina lub do teatru
Y=K+T
czyli matematycznie:
A.
Dotrzymam słowa (Y=1) gdy pójdę do kina (K=1) lub pójdę do teatru (T=1)
Y=K+T – logika dodatnia bo Y
czyli:
Y=1 <=> K=1 lub T=1
… a kiedy skłamię ?
Przejście do logiki ujemnej (~Y) poprzez negacje zmiennych i wymianę operatorów:
~Y=~K*~T – logika ujemna bo ~Y
B.
Skłamię (~Y=1) gdy nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y=~K*~T
Związek logiki dodatniej i ujemnej:
Y=~(~Y)
Podstawiając A i B mamy prawo de’Morgana dla sumy logicznej:
K+T = ~(~K*~T)
Wnioski:
1.
Definicja operatora OR to złożenie spójników „lub” w logice dodatniej ze spójnikiem „i” w logice ujemnej
2.
Spójnik logiczny to fundamentalnie co innego niż operator logiczny
3.
Prawo de’Morgana zachodzi w jednej i tej samej definicji zero-jedynkowej.
Prawo de’Morgana:
p+q = ~(~p*~q)
to definicja operatora OR zapisana w równaniu algebry Boole’a !
Definicja operatora AND:
Kod: |
p q Y=p*q
Dotrzymam słowa (Y), logika dodatnia bo Y:
Y=p*q
1 1 =1 /Y=p*q
Skłamię (~Y), logika ujemna bo ~Y:
~Y=~p+~q = ~p*~q+~p*q+p*~q
0 0 =0 /~Y=~p*~q
0 1 =0 /~Y=~p*q
1 0 =0 /~Y=p*~q
|
Przykład:
Jutro pójdę do kina i do teatru
Y=K*T
czyli matematycznie:
A.
Dotrzymam słowa (Y=1) gdy pójdę do kina (K=1) i pójdę do teatru (T=1)
Y=K*T
czyli:
Y=1 <=> K=1 i T=1
… a kiedy skłamię ?
Przejście do logiki ujemnej (~Y) poprzez negacje zmiennych i wymianę operatorów:
~Y=~K+~T
B.
Skłamię (~Y=1) gdy nie pójdę do kina (~K=1) lub nie pójdę do teatru (~T=1)
~Y=~K+~T
Związek logiki dodatniej i ujemnej:
Y=~(~Y)
Podstawiając A i B mamy prawo de’Morgana dla iloczynu logicznego
K*T = ~(~K+~T)
Wnioski:
1.
Definicja operatora AND to złożenie spójników „i” w logice dodatniej ze spójnikiem „lub” w logice ujemnej
2.
Spójnik logiczny to fundamentalnie co innego niż operator logiczny
3.
Prawo de’Morgana zachodzi w jednej i tej samej definicji zero-jedynkowej.
Prawo de’Morgana:
p*q = ~(~p+~q)
to definicja operatora AND zapisana w równaniu algebry Boole’a !
2.4 Równanie ogólne dla operatorów AND i OR
Na mocy definicji zachodzi:
p+q = ~(~p*~q) ## p*q = ~(~p+~q)
Po obu stronach znaku ## mamy dwie fundamentalnie różne definicje zero-jedynkowe zapisane w równaniu algebry Boole’a.
Dowód dla lewej strony.
Y=p+q = ~(~p*~q)
stąd:
Y=p+q = p*q+p*~q+~p*q – na mocy definicji spinka „lub” w logice dodatniej bo Y
~Y=~p*~q – spójnik „i” w logice ujemnej bo ~Y
Po zapisaniu powyższego w tabeli symbolicznej mamy:
Kod: |
p* q =Y
p*~q =Y
~p* q =Y
~p*~q=~Y
|
Przyjmując kodowanie powyższej tabeli w logice dodatniej:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
otrzymujemy tabele zero-jedynkową sumy logicznej
Kod: |
p q Y=p+q
1 1 =1
1 0 =1
0 1 =1
0 0 =0
|
CND
Dowód dla prawej strony
Y=p*q=~(~p+~q)
stąd:
Y=p*q – spójnik „i” w logice dodatniej bo Y
~Y=~p+~q = ~p*~q+~p*q+p*~q – na mocy definicji sumy logicznej w logice ujemnej bo ~Y
Zapisujemy powyższe w tabeli symbolicznej:
Kod: |
p* q =Y
~p*~q=~Y
~p* q=~Y
p*~q=~Y
|
Po zakodowaniu powyższej tabeli w logice dodatniej:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
otrzymujemy tabele zero-jedynkową iloczynu logicznego
Kod: |
p q Y=p*q
1 1 =1
0 0 =0
0 1 =0
1 0 =0
|
CND
Równanie ogólne dla operatorów AND i OR:
p+q = ~(~p*~q) ## p*q = ~(~p+~q)
Jest fizycznie nie możliwe, aby dla dowolnych p i q kiedykolwiek zaszła tożsamość „=” zamiast ##
Przykład:
Jutro pójdę do kina lub do teatru
Y=K+T
p=K
q=T
Jutro pójdę do teatru i do kina
Y=T*K
p=T
q=K
Matematycznie zachodzi:
K+T = ~(~K*~T) ## T*K = ~(~T+~K)
p+q = ~(~p*~q) ## p*q = ~(~p+~q)
Po obu stronach znaku ## pod zmienne formalne p i q możemy podstawiać cokolwiek, bowiem nie istnieją żadne związki matematyczne łączące strony rozdzielone znakiem ## - to dwie fundamentalnie inne definicje zero-jedynkowe.
W operatorach AND i OR zachodzi przemienność argumentów:
p+q=q+p
p*q=q*p
Dlatego tu nawet w tożsamości matematycznej:
p+q = ~(~q*~p)
Możemy sobie rzucać monetą ustalając p i q po obu stronach tożsamości
W implikacji, co zobaczymy za chwilę, taki manewr jest niedozwolony.
2.5 Operatory implikacji i równoważności
Implikacja odwrotna
Definicja warunku koniecznego autorstwa wykładowcy logiki Volratha:
Jeśli p jest konieczne dla q to zajście ~p wystarcza dla zajścia ~q
Stąd w sposób naturalny mamy prawo Kubusia:
p~>q = ~p=>~q
… i definicję implikacji odwrotnej !
Definicja implikacji odwrotnej:
Kod: |
p~>q=1
1 1 =1
p~~>~q=1
1 0 =1
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q
~p=>~q=1
0 0 =1
~p=>q=0
0 1 =0
|
p~>q
Jeśli zajdzie p to może ~> zajść q
Plus musi być spełniona wyrocznia implikacji, prawo Kubusia:
p~>q = ~p=>~q
gdzie:
~> - spójnik „może” ze spełnionym warunkiem koniecznym (prawem Kubusia)
~~> - naturalny spójnik „może”, wystarczy jedna prawda, warunek konieczny tu nie zachodzi
Z powyższego wynika że:
1.
Warunek konieczny (spójnik „może” ~>) = definicja implikacji odwrotnej
2.
Definicja zero-jedynkowa naturalnego „może” ~~>, wystarczy jedna prawda.
3.
Operator implikacji odwrotnej to złożenie spójnika „może” ~> w logice dodatniej (bo q - niezanegowane) ze spójnikiem „musi” => w logice ujemnej (bo ~q - zanegowane)
p~>q = ~p=>~q – prawo Kubusia
stąd:
Prawo Kubusia = definicja implikacji odwrotnej w równaniu algebry Boole’a
Przykład implikacji odwrotnej:
A.
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8=1 bo 8,16,24…
1 1 =1
LUB
B.
Jeśli liczba jest podzielna przez 2 to może ~~> nie być podzielna przez 8
P2~~>~P8=1 bo 2,4,6…
… a jeśli liczba nie jest podzielna przez 2 ?
Prawo Kubusia:
P2~>P8 = ~P2=>~P8
stąd:
C.
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8=1 bo 1,3,5,7… Gwarancja matematyczna, istota implikacji
0 0 =1
stąd:
D.
Jeśli liczba nie jest podzielna przez 2 to na pewno => jest podzielna przez 8
~P2=>P8=0
0 1 =0
Doskonale widać definicję implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
P2=1, ~P2=0
P8=1, ~P8=0
Doskonale widać że definicja implikacji odwrotnej to trzy rozłączne zbiory a nie dwa jak twierdzi „teoria mnogości”.
Zdanie B nie może być implikacja odwrotną
Dowód nie wprost.
Załóżmy że B jest implikacja odwrotną i zastosujmy wyrocznie implikacji, prawo Kubusia:
B: P2~>~P8 = D: ~P2=>P8=0
Prawa strona jest fałszem, zatem zdanie B nie może być implikacją odwrotną prawdziwą, warunek konieczny tu nie zachodzi
Implikacja prosta
Analogiczna definicja implikacji prostej:
Kod: |
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p=>q = ~p~>~q
~p~>~q=1
0 0 =1
~p~~>q=1
0 1 =1
|
p=>q
Jeśli zajdzie p to musi zajść q
Plus dodatkowo musi być spełniona wyrocznia implikacji, prawo Kubusia:
p=>q = ~p~>~q
Wnioski:
1.
Operator implikacji prostej to złożenie spójnika „musi” => w logice dodatniej (bo q) ze spójnikiem „może” ~> w logice ujemnej (bo ~q)
p=>q = ~p~>~q – prawo Kubusia
stąd:
Prawo Kubusia = definicja implikacji prostej w równaniu algebry Boole’a
2.
Operator implikacji prostej => to fundamentalnie co innego niże spójniki „musi” => i „może” ~>
Przykład implikacji prostej:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1 bo 8,16,24… Gwarancja matematyczna, istota implikacji
1 1 =1
stąd:
B.
Jeśli liczba jest podzielna przez 8 to na pewno => nie jest podzielna przez 2
P8=>~P2=0
1 0 =0
… a jeśli liczba nie jest podzielna przez 8 ?
Prawo Kubusia:
P8=>P2 = ~P8~>~P2
czyli:
C.
Jeśli liczba nie jest podzielna przez 8 to może ~> nie być podzielna przez 2
~P8~>~P2=1 bo 1,3,5,7…
0 0 =1
LUB
D.
Jeśli liczba nie jest podzielna przez 8 to może ~~> być podzielna przez 2
~P8~~>P2=1 bo 2,4,6…
0 1 =1
Wnioski:
1.
Doskonale widać definicję implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
P8=1, ~P8=0
P2=1, ~P2=0
2.
Doskonale widać że definicja implikacji prostej to trzy rozłączne zbiory a nie dwa jak twierdzi „teoria mnogości”.
3.
Doskonale widać, że spełnienie warunku wystarczającego po stronie p=>q niczego nie gwarantuje bo to może być równoważność, jeśli po stronie ~p zachodzi kolejny warunek wystarczający:
p<=>q = (p=>q)*(~p=>~q) – definicja równoważności <=>
albo implikacja prosta jeśli po stronie ~p zachodzi warunek konieczny:
p=>q = ~p~>~q – definicja implikacji prostej =>
To wytłuszczone to identyczne warunki wystarczające, w naturalnej logice człowieka nie do rozpoznania bez odpowiedniej analizy matematycznej zdania p=>q.
Równoważność
Jedynie słuszna definicja równoważności w dzisiejszej matematyce to pewne wynikanie w dwie strony:
p<=>q = (p=>q)*(q=>p)=1*1=1
Na bazie tej definicji plus definicji „implikacji materialnej” matematycy zbudowali teorię mnogości, błędnie głoszącą iż:
Równoważność = jeden zbiór
Implikacja = dwa zbiory
Okrutna rzeczywistość jest fundamentalnie inna (NTI):
równoważność = dwa zbiory
implikacja = trzy zbiory
Na mocy odpowiednich definicji zero-jedynkowych
Aksjomatyczna definicja zero-jedynkowa równoważności:
Kod: |
p<=>q = (p=>q)*(~p=>~q)
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
… a jeśli nie zajdzie p ?
~p<=>~q=(~p=>~q)*(p=>q)
~p=>~q=1
0 0 =1
~p=>q=0
1 0 =0
|
Dziewicza definicja równoważności na podstawie powyższej tabeli:
p<=>q = (p=>q)*(~p=>~q) = 1*1=1
p zajdzie wtedy i tylko wtedy gdy zajdzie q
Wnioski:
1.
Równoważność to złożenie warunku wystarczającego w logice dodatniej (bo q) i kolejnego warunku wystarczającego w logice ujemnej (bo ~q)
W równoważności (i tylko tu) prawdziwe jest prawo kontrapozycji w tej formie:
~p=>~q =q=>p
stąd mamy odprysk definicji równoważności uwielbiany przez matematyków:
p<=>q = (p=>q)*(q=>p)
Gdzie po prawej stronie mamy definicje warunków wystarczających o definicji zero-jedynkowej:
Kod: |
p=>q =1
1 1 =1
p=>~q=0
1 0 =0
|
Warunek wystarczający definiowany jest zaledwie dwoma liniami tabeli zero-jedynkowej.
p=>q
Jeśli zajdzie p to musi zajść q
Z czego wynika że kolejna linia nie ma prawa wystąpić czyli:
p=>~q=0
z czego wynika że p musi być wystarczające dla q
2.
Symboliczna definicja implikacji prostej
p=>q = ~p~>~q – prawo Kubusia
Definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)
Zauważmy że warunek wystarczający p=>q (wytłuszczony) jest identyczny w równoważności i implikacji, bez analizy matematycznej to jest nie do rozróżnienia.
W naturalnym języku mówionym człowiek wypowiada wyłącznie warunek wystarczający (spójnik „musi” =>) o definicji zero-jedynkowej jak wyżej. Warunek wystarczający, w przeciwieństwie do warunku koniecznego istnieje samodzielnie tzn. do jego definicji wystarczają zaledwie dwie linie tabeli zero-jedynkowej jak wyżej.
3.
Twierdzenie Rexerexa:
Jeśli równoważność jest udowodniona to zachodzi wszystko co tylko możliwe:
p=>q = p<=>q = (p=>q)*(~p=>~q) = ~p<=>~q = ~p=>~q = (p=>q)*(q=>p) = q=>p itd.
Gdzie zapisy typu:
p=>q, q=>p, ~p=>~q
to tylko i wyłącznie warunki wystarczające o definicji jak wyżej, to nie są implikacje proste !
Definicja dziedziny:
Dziedziną w równoważności i implikacji jest zawsze zbiór p+~p
Definicja zbioru aktualnego:
Zbiorem aktualnym w równoważności albo implikacji jest zbiór na którym operujemy.
Możliwości mamy tylko dwie:
p – zbiór p z dziedziny p+~p
~p – zbiór ~p z dziedziny p+~p
Zbiór aktualny zawsze definiowany jest w poprzedniku p.
Oczywiście widać tu jak na dłoni metody badania czy warunek wystarczający między p i q występuje,
Sposób I
Badamy czy dla każdego p zachodzi q
Sposób II
Szukamy jednego zdania spełniającego:
p~~>q =1
po czym szukamy kontrprzykładu czyli zdania:
p~~>~q=1
Brak kontrprzykładu dowodzi iż warunek wystarczający p=>q jest spełniony.
Gdzie:
p~~>q – naturalne „może”, wystarczy jeden przypadek prawdziwy
Przykład równoważności:
A.
Jeśli trójkąt jest równoboczny to na pewno => ma boki równe
TR=>BR=1
1 1 =1
B.
Jeśli trójkąt jest równoboczny to na pewno => nie ma boków równych
TR=>~BR=0
1 0 =0
… a jeśli nie ma boków równych ?
Na mocy twierdzenia Rexerexa:
TR=>BR = ~TR=>~BR
C.
Jeśli trójkąt nie jest równoboczny to na pewno => nie ma boków równych
~TR=>~BR=1
0 0 =1
D.
Jeśli trójkąt nie jest równoboczny to na pewno => ma boki równe
~TR=>BR=0
0 1 =0
Doskonale widać definicje zero-jedynkowa równoważności dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
TR=1, ~TR=0
BR=1, ~BR=0
Doskonale widać, że równoważność to dwa rozłączne zbiory TR i ~TR a nie jak twierdzi „teoria mnogości” jeden zbiór.
2.6 Równanie ogólne dla operatorów implikacji
Na mocy definicji mamy:
p=>q = ~p~>~q ## p~>q = ~p=>~q
Po obu stronach znaku ## mamy dwie fundamentalnie inne definicje zero-jedynkowe:
p=>q = ~p~>~q – definicja implikacji prostej => w równaniu algebry Kubusia
p~>q = ~p=>~q – definicja implikacji odwrotnej ~> w równaniu algebry Kubusia
Dowód dla lewej strony:
Kod: |
Definicja warunku wystarczającego w logice dodatniej bo q
p=>q=1
p=>~q=0
Definicja warunku koniecznego w logice ujemnej bo ~q
~p~>~q=1
~p~~>q=1
|
Kodując zmienne w logice dodatniej:
p=1, ~p=0
q=1, ~q=0
Otrzymujemy tabele zero-jedynkową implikacji prostej =>
Kod: |
Zero-jedynkowa definicja implikacji prostej p=>q
p q Y=p=>q = ~p~>~q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
CND
Dowód dla prawej strony:
Kod: |
Definicja warunku koniecznego w logice dodatniej bo q
p~>q=1
p~~>~q=1
Definicja warunku wystarczającego w logice ujemnej bo ~q
~p=>~q=1
~p=>q=0
|
Kodując zmienne w logice dodatniej:
p=1, ~p=0
q=1, ~q=0
Otrzymujemy tabele zero-jedynkową implikacji odwrotnej ~>
Kod: |
Zero-jedynkowa definicja implikacji odwrotnej p~>q
p q Y=p~>q = ~p=>~q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
CND
Równanie ogólne dla operatorów implikacji:
p=>q = ~p~>~q ## p~>q = ~p=>~q
Po obu stronach znaku ## pod parametry p i q możemy podstawiać cokolwiek, bowiem nie istnieją żadne związki matematyczne łączące obie strony ##.
Sprawdźmy teraz czy argumenty w implikacji są przemienne. To najważniejsza i kluczowa sprawa dla wszelkich naszych przyszłych poczynań.
Kod: |
| Punkt | Punkt
| odniesienia | odniesienia
| p=>q | p~>q
| |
p q | p=>q q=>p | p~>q q~>p
1 1 | =1 =1 | =1 =1
1 0 | =0 =1 | =1 =0
0 0 | =1 =1 | =1 =1
0 1 | =1 =0 | =0 =1
|
Argumenty w operatorach implikacji nie są przemienne czyli:
p=>q # q=>p
Przykład:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1
P8=>P2=1 # P2=>P8=0 bo 2
p~>q # q~>p
Przykład:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8=1
P2~>P8=1 # P8~>P2=0
Dowód iż P8~>P2=0 jest banalny.
Wyrocznia implikacji, prawo Kubusia:
P8~>P2 = ~P8=>~P2=0 bo 2
Prawa strona jest fałszem, zatem lewa strona nie może być implikacja odwrotną prawdziwą.
Ogólnie zachodzi:
Jeśli p=>q=1 to q=>p=0
dla dowolnych p i q !
Przykład:
Jeśli P8=>P2=1 to P2=>P8=0
Odwrotnie nie zachodzi:
Jeśli p=>q=0 to q=>p=1
bo kontrprzykład:
Jeśli P8=>P3=0 to P3=>P8=0
Zdanie:
Jeśli liczba jest podzielna przez 8 to może być podzielna przez 3
P8~~>P3=1 bo 24
Jest prawdziwe na mocy naturalnego „może” ~~>, wystarczy jedna prawda, to nie jest implikacja odwrotna.
Wracamy do równania ogólnego implikacji:
p=>q = ~p~>~q ## p~>q = ~p=>~q
W implikacji nie zachodzi przemienność argumentów dlatego w tożsamości matematycznej:
p=>q = ~p~>~q
p~>q = ~p=>~q
musimy zachować identyczne p i q
Przykład:
Lewa strona równania ogólnego implikacji:
Jeśli liczba jest podzielna przez 8 to na pewno jest podzielna przez 2
P8=>P2 =1 bo 8,16,24 … - gwarancja matematyczna
Prawo Kubusia:
P8=>P2 = ~P8~>~P2
Dla lewej strony równania ogólnego implikacji ustalamy:
p=P8
q=P2
Prawa strona równania ogólnego implikacji:
Jeśli liczba jest podzielna przez 2 to może być podzielna przez 8
P2~>P8=1 bo 8,16,24…
Gwarancja matematyczna w implikacji odwrotnej wynika z prawa Kubusia:
P2~>P8 = ~P2=>~P8
czyli:
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8=1 bo 1,3,5… - gwarancja matematyczna
Dla prawej strony równania ogólnego implikacji ustalamy:
p=P2
q=P8
Równanie ogólne implikacji dla naszego przykładu:
P8=>P2 = ~P8~>~P2 ## P2~>P8 = ~P2=>~P8
Stąd w implikacji zachodzi prawo kontrapozycji w tej postaci:
P8=>P2=1 ## ~P2=>~P8=1
Dla sztywnego punktu odniesienia:
p=P8
q=P2
otrzymujemy prawo kontrapozycji w implikacji w takiej formie:
p=>q=1 ## ~q=>~p=1
W implikacjach bezczasowych warunek wystarczający p=>q po lewej stronie wymusza warunek wystarczający po prawej stronie ~q=>~p, ale między obiema stronami nie istnieją żadne związki matematyczne.
A.
Jeśli zwierze jest psem to na pewno ma cztery łapy
P=>4L=1
Równanie ogólne implikacji:
P=>4L = ~P~>~4L=1 ## 4L~>P = ~4L=>~P=1
Prawo kontrapozycji w NTI:
P=>4L=1 ## ~4L=>~P=1
B.
Jeśli zwierze nie ma czterech łap to na pewno nie jest psem
~4L=>~P=1
Oczywiście żaden 5-cio latek nie będzie miał problemu z wypowiedzeniem A i B, ale nie zachodzi tożsamość matematyczna miedzy tymi zdaniami, bowiem na mocy równania ogólnego implikacji po obu stronach mamy do czynienia z fragmentami zupełnie innych definicji zero-jedynkowych.
W implikacjach z następstwem czasowym powyższe nie zachodzi.
Przykład:
Jeśli będzie padać to otworze parasolkę
P=>O=1
Równanie ogólne implikacji:
P=>O = ~P~>~O =1 ## O~>P = ~O=>~P =0
Prawo kontrapozycji:
P=>O=1 ## ~O=>~P=0
czyli:
Jeśli nie otworze parasolki to na pewno => nie będzie padać
~O=>~P=0 – oczywiście zdanie fałszywe
Doskonale tu widać poprawność symbolu ## w powyższym równaniu, czyli lewa strona jest bez związków matematycznych z prawą stroną.
Zdanie po prawej stronie znaku ## nie wypowie żaden 5-cio latek bo to jest zdanie fałszywe czyli:
~O=>~P=0
2.7 Nieznane definicje implikacji i równoważności, wynikające z NTI
Przy pomocy tych definicji można skutecznie i łatwo rozstrzygać czy zdanie jest implikacją prostą =>, implikacja odwrotną ~> czy też równoważnością. Definicje te wynikają bezpośrednio z tabel zero-jedynkowych odpowiednich operatorów logicznych w interpretacji NTI.
Definicja warunku koniecznego autorstwa wykładowcy logiki Volratha:
Jeśli p jest konieczne ~> dla q to zajście ~p wystarcza => dla zajścia ~q
p~>q = ~p=>~q – prawo Kubusia
Definicja warunku koniecznego ukierunkowana na zajście warunku ~p=>~q
Kod: |
Tabela 1
p~>q=1
1 1 =1
p~~>q=x
1 0 =x
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p~>q = ~p=>~q
~p=>~q=1
0 0 =1
~p=>q=0
0 1 =0
|
W tej definicji kompletnie nas nie interesuje wartość logiczna linii drugiej:
x={0,1}
Tu może być cokolwiek:
0 – równoważność
1 – implikacja odwrotna
Interesują nas tu relacje między zbiorami po stronie p i q
Jeśli p to q
Warunek konieczny zachodzi gdy:
Jeśli zabierzemy zbiór p to musi => zniknąć zbiór q !
Przykłady:
1.
Jeśli liczba jest podzielna przez 2 to może być podzielna przez 8
P2~>P8=1 bo:
Zabieramy zbiór P2, oczywiście znika nam zbiór P8
Wniosek:
P2 jest konieczne dla P8
2.
Jeśli liczba jest podzielna przez 8 to może być podzielna przez 2
P8~>P2=0 bo:
zabieramy zbiór P8, oczywiście zbiór P2 nie znika, zostają liczby:
~P8~~>P2=1 bo 2,4,6…
Wniosek:
P8 nie jest konieczne dla P2
Zdanie 2 jest prawdziwe na mocy naturalnego może ~~>, wystarczy jedna prawda:
P8~~>P2=1 bo 8
ale to nie jest implikacja odwrotna.
3.
Jeśli liczba jest podzielna przez 3 to może być podzielna przez 8
P3~>P8=0 bo:
Zabieramy zbiór liczb podzielnych przez 3:
P3=3,6,9….
a po stronie q zostaje nam jedna liczba:
P8=8
To wystarczy !
P3 nie jest konieczne dla P8
Zdanie 3 jest prawdziwe na mocy naturalnego „może” ~~>
P3~~>P8=1 bo 24
ale to nie jest implikacja odwrotna.
Definicja warunku wystarczającego ukierunkowana na zajście warunku wystarczającego p=>q:
Kod: |
Tabela 2
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p=>q = ~p~>~q
~p~>~q=1
0 0 =1
~p~~>q=x
0 1 =x
|
W tym przypadku nie interesuje nas stan logiczny ostatniej linii bowiem o zachodzeniu warunku wystarczającego decydują dwie pierwsze linie i relacje między zbiorami po stronie p i q.
W ostatniej linii może być cokolwiek:
0 – równoważność
1 – implikacja prosta
Przykłady:
1.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1 bo 8,16,24 …
Oczywiście P8 wystarcza dla P2
2.
Jeśli liczba jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
P2=>P8=0 bo 2
Zauważmy, że iloczyn logiczny tabel 1 i 2 to definicja równoważności bowiem w odpowiednich liniach
x*0=0
Definicja równoważności ukierunkowana na relacje między zbiorami p i q:
p<=>q = (p~>q)*(p=>q) =1*1=1
gdzie:
p~>q
Warunek konieczny w interpretacji na zbiorach:
Jeśli zabierzemy zbiór p i musi zniknąć zbiór q
p=>q
Warunek wystarczający między p i q
Nieznane definicje implikacji i równoważności:
A.
Równoważność <=> to jednoczesne zachodzenie warunku koniecznego i wystarczającego w działaniach na zbiorach co widać w tabelach 1 i 2.
p=>q=1 – warunek wystarczający w kierunku p=>q zachodzi
p~>q=1 – warunek konieczny w kierunku p~>q zachodzi
p<=>q = (p~>q)*(p=>q)
B.
Implikacja prosta p=>q to zachodzenie wyłącznie warunku wystarczającego w zbiorach.
p=>q=1 – warunek wystarczający w kierunku p=>q zachodzi
p~>q=0 – warunek konieczny w kierunku p~>q nie zachodzi
C.
Implikacja odwrotna p~>q to zachodzenie wyłącznie warunku koniecznego w zbiorach.
p~>q=1 – warunek konieczny w kierunku p~>q zachodzi
p=>q=0 – warunek wystarczający w kierunku p=>q nie zachodzi
Powyższe definicje można wykorzystywać do rozstrzygnięć czy zdanie „Jeśli…to…” jest implikacją prostą =>, implikacją odwrotną ~> czy też równoważnością <=>.
Przykład równoważności:
Jeśli trójkąt ma boki równe to jest równoboczny
BR=>TR
Oczywiście trzy odcinki o równych długościach są wystarczające dla zbudowania trójkąta równobocznego
Wniosek:
Warunek wystarczający spełniony
Jeśli zamienimy jeden z trzech odcinków na odcinek o innej długości to zbudowania trójkąta równobocznego nie będzie możliwe.
Wniosek:
Trzy równe odcinki są warunkiem koniecznym dla trójkąta równobocznego
Między zbiorami BR i TR zachodzi jednocześnie warunek wystarczający BR=>TR i konieczny BR~>TR
co jest dowodem równoważności:
BR<=>TR = (BR=>TR)* (BR~>TR)
2.8 Znaczenie zdania „Jeśli…to…” w logice
Zdanie „Jeśli …to…” może mieć w logice tylko i wyłącznie pięć różnych znaczeń:
1.
Implikacja prosta:
p=>q
Jeśli zajdzie p to musi zajść q
p musi być wystarczające dla q
Dodatkowo musi być spełniona wyrocznia implikacji prawo Kubusia:
p=>q = ~p~>~q
Prawo Kubusia = definicja implikacji prostej
Przykład:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2 = ~P8~>~P2=1 bo 3,5,7…
2.
Tylko warunek wystarczający wchodzący w skład definicji równoważności
p=>q
Jeśli zajdzie p to musi zajść q
Definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)
Warunek wystarczający w równoważności p=>q jest identyczny jak w implikacji prostej wyżej p=>q, to jest nie do rozpoznania.
Prawa strona definicji równoważności to tylko i wyłącznie warunki wystarczające, nie są to implikacje proste bo nie spełniają definicji zero-jedynkowej implikacji prostej =>.
Przykład:
Jeśli trójkąt jest równoboczny to ma kąty równe
TR=>KR
To jest tylko i wyłącznie warunek wystarczający wchodzący w skład definicji równoważności:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR=>~KR)
3.
Implikacja odwrotna:
p~>q
jeśli zajdzie p to może zajść q
Plus musi być spełnione prawo Kubusia:
p~>q = ~p=>~q
z czego wynika że p musi być warunkiem koniecznym dla q
Definicja warunku koniecznego autorstwa wykładowcy logiki Volratha:
Jeśli p jest konieczne ~> dla q to zajście ~p wymusza => zajście ~q
p~>q = ~p=>~q – prawo Kubusia
Prawo Kubusia = definicja implikacji odwrotnej
Przykład:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8 = ~P2=>~P8 =1
4.
Zdaniem prawdziwym na mocy naturalnego spójnika „może” ~~>, wystarczy jedna prawda, warunek konieczny tu nie zachodzi.
Przykład:
Jeśli liczba jest podzielna przez 3 to może być podzielna przez 8
P3~~>P8 =1 bo 24
P3 nie jest konieczne dla P8 bo 8, zatem implikacja odwrotna jest tu fałszywa
5.
Zdaniem fałszywym, nie spełniającym któregokolwiek z powyższych przypadków.
Ostatnio zmieniony przez rafal3006 dnia Nie 11:37, 23 Sty 2011, w całości zmieniany 1 raz
|
|
Powrót do góry |
|
|
|
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35331
Przeczytał: 23 tematy
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Nie 11:35, 23 Sty 2011 Temat postu: |
|
|
3.0 Zero-jedynkowa algebra Boole’a
Klasyczna, zero-jedynkowa algebra Boole’a to w dniu dzisiejszym zabytek klasy zerowej. Algebra ta jest co prawda fundamentem działania wszelkich komputerów (i całego naszego Wszechświata) ale człowiek myślał w zerach i jedynkach zaledwie przez mgnienie oka. Natychmiast wynalazł język symboliczny zwany asemblerem izolując się od kodu maszynowego … czyli skopiował działanie własnego mózgu.
W technice bramek logicznych znane jest pojęcie logiki dodatniej i ujemnej w algebrze Boole’a, jednak problem sprowadzony jest tu do banału „zgodności sygnałów logicznych”.
Jeśli sygnały cyfrowe w dowolnym układzie logicznym są przeciwnych logikach to używamy banalnego negatora aby doprowadzić do zgodności sygnałów.
W naszym Wszechświecie oraz naturalnym języku mówionym człowieka króluje logika dodatnia i ujemna w algebrze Boole’a uzyskiwana w inny, równoważny sposób.
Dana jest funkcja logiczna
A.
Y=A*B
Logika dodatnia bo Y (brak negacji funkcji logicznej)
B.
Przejście do logiki ujemnej w świecie techniki.
Negujemy dwustronnie powyższe równanie:
~Y=~(A*B)
Logika ujemna bo ~Y (jest negacja funkcji logicznej)
W tym przypadku wystarczy prosty negator bez ingerencji w budowę układu logicznego
C.
Równoważne przejście do logiki ujemnej, powszechne w naszym Wszechświecie.
W równaniu A negujemy sygnały i wymieniamy operatory na przeciwne:
~Y=~A+~B
W świecie techniki ten sposób przejścia do logiki ujemnej jest bezsensem bo wymaga totalnej przebudowy całego układu logicznego.
3.1 Prawa wynikające z definicji iloczynu logicznego
Definicja iloczynu logicznego w logice dodatniej:
Iloczyn logiczny n-zmiennych binarnych jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Y=A*B
Y=1 <=> A=1 i B=1
Definicja równoważna w logice ujemnej:
Iloczyn logiczny jest równy zeru gdy którakolwiek zmienna jest równa zeru.
Y=A*B
Y=0 <=> A=0 lub B=0
Zauważmy, że mamy tu niezgodność z naturalną logiką człowieka. W zapisie matematycznym mamy spójnik „i”(*) a w rozwinięciu szczegółowym używamy spójnika „lub” – dlatego to jest logika ujemna.
Prawa wynikające bezpośrednio z definicji:
1*0=0
1*1=1
A*0=0
A*1=A
A*A=A
A*~A=0
W języku mówionym powyższe prawa nie są używane, przydają się jedynie w technice cyfrowej.
3.2 Prawa wynikające z definicji sumy logicznej
Definicja sumy logicznej w logice dodatniej:
Suma logiczna n-zmiennych binarnych jest równa jeden gdy którakolwiek zmienna jest równa 1
Y=A+B
Y=1 <=> A=1 lub B=1
Definicja równoważna w logice ujemnej:
Suma logiczna n-zminnych binarnych jest równa zeru wtedy i tylko wtedy gdy wszystkie zmienne są równe zeru.
Y=A+B
Y=0 <=> A=0 i B=0
Zauważmy, że mamy tu niezgodność z naturalną logiką człowieka. W zapisie matematycznym mamy spójnik „lub”(+) a w rozwinięciu szczegółowym używamy spójnika „i” – dlatego to jest logika ujemna.
Prawa wynikające bezpośrednio z definicji:
1+0=1
0+0=0
A+1=1
A+0=A
A+A=A
A+~A=1
W języku mówionym powyższe prawa nie są używane, przydają się jedynie w technice cyfrowej.
3.3 Najważniejsze prawa algebry Boole’a
W języku mówionym prawa łączności i przemienności to oczywistość, natomiast absorpcja, rozdzielność i pochłanianie są przydatne jedynie w technice cyfrowej.
Łączność:
A+(B+C) = (A+B)+C
A*(B*C)=(A*B)*C
Przemienność:
A+B=B+C
A*B=B*C
Absorbcja:
A+(A*B)=A
Dowód:
Jeśli A=1 to A+(A*B)=1+(A*B)=1
Jeśli A=0 to A+(A*B)=0+(0*B)=0+0=0
niezależnie od wartości B
CND
A*(A+B)=A
Dowód:
Jeśli A=1 to A*(A+B)= 1*(1+B)=1*1=1
Jeśli A=0 to A*(A+B)=0*(A+B)=0
niezależnie od wartości B.
CND
Rozdzielność:
A+(B*C) = (A+B)*(A+C)
A*(B+C)=(A*B)+(B*C)
Pochłanianie:
A*~A=0
A+~A=1
3.4 Fundamenty algebry Boole’a
Matematycznym fundamentem dwuelementowej algebry Boole’a jest definicja iloczynu kartezjańskiego i pojęcie funkcji.
W algebrze Boole’a znane są wyłącznie cyfry 0 i 1. Mamy tu dwa zbiory p=(0,1) i q=(0,1) bo inne cyfry są nielegalne. Iloczyn kartezjański tych zbiorów to zbiór [p,q]=[(0,0), (0,1), (1,0), (1,1)].
Definicja funkcji logicznej:
Funkcja logiczna w algebrze Boole’a to jednoznaczne odwzorowanie iloczynu kartezjańskiego [p,q]=[(0,0), (0,1), (1,0), (1,1)] w zbiór Y zwany funkcja logiczną.
W technice cyfrowej p i q zwane są sygnałami wejściowymi bramki logicznej, natomiast funkcja logiczna Y to wyjście cyfrowe.
Kod: |
Schemat ideowy bramki OR
p q
| |
---------
| |
| OR |
---------
|
V
Y=p+q
|
W technice cyfrowej bramka OR realizuje funkcję sumy logicznej.
Funkcje logiczne w algebrze Boole’a definiowane są tabelami zero-jedynkowymi, zwanymi tabelami prawdy.
Funkcja logiczna OR
Kod: |
Tabela 1
p q Y=p+q
1 1 =1
1 0 =1
0 1 =1
0 0 =0
|
Przypomnijmy sobie definicje …
Definicja sumy logicznej w logice dodatniej:
Suma logiczna n-zmiennych binarnych jest równa jeden gdy którakolwiek zmienna jest równa 1
Y=p+q
Y=1 <=> p=1 lub q=1
w przeciwnym przypadku Y=0 czyli:
Y=p+q
Y=0 <=>p=0 i q=0
Doskonale widać, zgodność matematycznej funkcji logicznej z naszą tabelą zero-jedynkową.
Synonimy dla określenia funkcji logicznej:
Funkcja logiczna = Operator logiczny (logika) = Bramka logiczna (technika) = Tabela prawdy (technika)
Przykład:
Funkcja logiczna OR = Operator logiczny OR = Bramka logiczna OR = Tabela prawdy OR
Pojęcia te można używać zamiennie.
Definicja operatora logicznego:
Operator logiczny to kompletna funkcja Y, będąca jednoznacznym odwzorowaniem wszystkich możliwych stanów na wejściach p i q.
Oczywiście:
Operator logiczny = funkcja logiczna
Definicja funkcji logicznej OR (operatora logicznego OR).
Kod: |
Tabela 2
p q Y=p+q q p Y=q+p
1 1 =1 1 1 =1
1 0 =1 0 1 =1
0 0 =0 0 0 =0
0 1 =1 1 0 =1
|
Wiersze w tabeli zero-jedynkowej operatora logicznego możemy dowolnie zmieniać co pokazano w tabeli 1 i 2, to bez znaczenia. Istotne jest aby konkretnym p i q odpowiadała zawsze ta sama funkcja logiczna Y.
Na mocy definicji operatora OR mamy:
Y=1 <=> p=1 lub q=1
W przeciwnym przypadku:
Y=0
W tabeli 2 pokazano przy okazji dowód przemienności argumentów w operatorze OR. Dowodem jest tu identyczność kolumn wynikowych Y w odpowiedzi na zamianę kabelków na wejściach p i q.
Termin „operator logiczny” jest w powszechnym użyciu w logice i nie będziemy się z tego wyłamywać.
3.5 Aksjomatyczne definicje operatorów logicznych w algebrze Boole’a i NTI
Podstawowe definicje dwuelementowej algebry Boole’a to po prostu pełna lista operatorów logicznych.
Aksjomatyczne definicje operatorów logicznych w algebrze Boole’a i NTI:
Kod: |
p q OR NOR AND NAND <=> XOR => N(=>) ~> N(~>) FILL NOP P NP Q NQ
1 1 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0
1 0 1 0 0 1 0 1 0 1 1 0 1 0 1 0 0 1
0 1 1 0 0 1 0 1 1 0 0 1 1 0 0 1 1 0
0 0 0 1 0 1 1 0 1 0 1 0 1 0 0 1 0 1
|
Kod: |
Logika dodatnia Logika ujemna
OR NOR
AND NAND
<=> XOR
=> N(=>)
~> N(~>)
FILL NOP
P NP
Q NQ
|
Wszystkich możliwych operatorów logicznych dwuargumentowych jest 16. Za operatory dodatnie przyjęto te, które człowiek używa w naturalnym języku mówionym.
Operator ujemny to zanegowany operator dodatni, co doskonale widać w powyższej tabeli.
Operator dodatni to zanegowany operator ujemny, co również widać wyżej.
Kod: |
Definicje operatorów ujemnych:
pNORq = ~(p+q)
pNANDq = ~(p*q)
pXORq = ~(p<=>q)
pN(=>)q = ~(p=>q)
pN(~>)q = ~(p~>q)
pNOPq = ~(pFILLq)
pNPq = ~(pPq)
pNQq = ~(pQq)
|
W języku mówionym operatory ujemne nie są używane, ponieważ łatwo je zastąpić operatorami dodatnimi plus negacją co widać w powyższej tabeli.
Dowolny operator logiczny jest jednoznacznie zdefiniowany tabelą zero-jedynkową i nie ma tu miejsca na jego niejednoznaczną interpretację. Argumenty w dowolnym operatorze logicznym mogą być albo przemienne (AND, OR, <=>), albo nieprzemienne (implikacja prosta => i implikacja odwrotna ~>).
3.6 Abstrakcyjny model operatora logicznego
Wyobraźmy sobie czarną skrzynkę z dwoma przełącznikami p i q na których można ustawiać logiczne 0 albo 1. Wyjściem w tej skrzynce jest lampka Y sterowana przez najprawdziwszego krasnoludka imieniem OPERATOR w następujący sposób.
Y=1 – lampka zaświecona
Y=0 – lampka zgaszona
Panel sterowania naszej czarnej skrzynki umożliwia wybór jednego z 16 możliwych operatorów logicznych.
Fizyczna realizacja takiej czarnej skrzynki w technice TTL jest banalna. W laboratorium techniki cyfrowej można sprawdzić doświadczalnie działanie wszystkich 16 operatorów logicznych. Pewne jest że teoria matematyczna musi być w 100% zgodna z rzeczywistością co jest dowodem … że krasnoludki są na świecie.
3.7 operatory logiczne FILL i NOP
Definicje FILL i NOP
Kod: |
p q Y=pFILLq Y=pNOPq
1 1 =1 =0
1 0 =1 =0
0 1 =1 =0
0 0 =1 =0
|
Jak widzimy po wybraniu operatora FILL krasnoludek OPERATOR zapala lampkę na wyjściu Y=1, siada na stołeczku i odpoczywa kompletnie nie interesując się co też człowiek na wejściach p i q sobie ustawia. Analogicznie jeśli wybierzemy operator NOP to lampka na wyjściu Y będzie cały czas zgaszona (Y=0).
3.8 Operatory P i Q
Definicje operatorów P i Q:
Kod: |
p q Y=pPq Y=pQq
1 1 =1 =1
1 0 =1 =0
0 1 =0 =1
0 0 =0 =0
|
Operator P generuje na wyjściu Y sygnał identyczny z tym jaki widnieje po lewej stronie operatora P:
pPq =p
qPp=q
aPb=a
itd.
Fizycznie operator pPq to po prostu połączenie kabelkiem wejścia p z wyjściem Y, wejście q jest tu zupełnie nieistotne i można je usunąć.
Z powyższego wynika że operator P można i należy zredukować do sygnału widniejącego po lewej stronie operatora P, czyli całość redukujemy do operatora jednoargumentowego o definicji.
Analogicznie operator Q można i należy zredukować do sygnału widniejącego z prawej strony operatora Q:
pQq=q
qQp=p
aQb=b
itd.
Fizycznie operator pQq to po prostu połączenie kabelkiem wejścia q z wyjściem Y, wejście p jest tu zupełnie nieistotne i można je usunąć, czyli w rzeczywistości mamy do czynienia z operatorem jednoargumentowym o następującej definicji.
3.9 operatory negacji NP i NQ
Definicje operatorów NP i NQ
Kod: |
p q Y=pNPq Y=pNQq
1 1 =0 =0
1 0 =0 =1
0 1 =1 =0
0 0 =1 =1
|
Doskonale widać, że na wyjściu operatora pNPq mamy:
Y=pNPq = pNP = ~p
Na wyjściu Y mamy zanegowany sygnał z wejścia p, sygnał q jest tu totalnie nieistotny i można go do kosza wyrzucić. Fizycznie ten operator to połączenie wejścia p z wyjściem Y poprzez układ negatora, czyli całość to w rzeczywistości jednoargumentowy układ negatora o definicji jak niżej.
Definicja negatora:
Kod: |
p Y=pNP=~p
1 =0
0 =1
|
Gdzie:
~ - symbol negacji, w mowie potocznej przeczenie NIE
Oczywiście matematycznie zachodzi:
Y=pNPq=pNP=~p
Y=qNPp=qNP=~p
Y=aNPb=aNP=~a
itd.
Czyli istotny jest wyłącznie sygnał z lewej strony operatora NP.
Analogiczną funkcję negatora realizuje operator pNQq:
Y=pNQq = NQq=~q
Tu z kolei istotny jest wyłącznie sygnał po prawej stronie operatora NQq.
Matematycznie zachodzi:
Y=pNQq=NQq=~q
Y=qNQp=NQp=~p
Y=aNQb=NQb=~b
itd.
Czyli istotny jest wyłącznie sygnał po prawej stronie operatora NQ.
Ciekawostka:
Z lewej strony może być dowolnie długa funkcja logiczna, to kompletnie bez znaczenia np.
Y=(a+b+~d*a+..)NQb = ~b
Tabela prawdy tego negatora:
Kod: |
q Y=NQq=~q
1 =0
0 =1
|
Gdzie:
~ - symbol negacji, w mowie potocznej przeczenie NIE
4.0 Algebra Kubusia w tabelach zero-jedynkowych
Algebra Kubusia to symboliczna algebra Boole’a, czyli operujemy równaniami algebry Boole’a (język asemblera) a nie bezwzględnymi zerami i jedynkami.
Definicja algebry Kubusia:
Dwuelementowa algebra Kubusia (wyłącznie cyfry 0 i 1) to algebra legalnych operatorów logicznych z których najważniejsze to OR(+), AND(*), implikacja prosta =>, implikacja odwrotna ~>, równoważność <=>, plus definicja negacji (~) oraz pojęcie zmiennej binarnej i funkcji logicznej.
Definicja negacji:
1=~0
0=~1
Zmienna binarna
Zmienna binarna to zmienna, mogąca przyjmować w osi czasu wyłącznie dwie wartości logiczne 0 albo 1.
Nazwa zmiennej binarnej to dowolny symbol (litera alfabetu lub słowo) z wyjątkiem litery Y zwyczajowo zarezerwowanej dla funkcji logicznej.
Funkcja logiczna
Funkcja logiczna Y to funkcja n-zmiennych binarnych połączonych operatorami AND(*) lub OR(+).
Przykład:
Y = A*(B+C)
Symboliczna definicja negacji:
Y=~A
gdzie:
A - zmienna binarna
Y - funkcja logiczna
Tabela prawdy:
Prawo podwójnego przeczenia
A=~(~A)
Prawo podwójnego przeczenia to jedno z najważniejszych praw w logice.
Dowód przy pomocy tabeli zero-jedynkowej:
Kod: |
A ~A ~(~A)
1 0 1
0 1 0
|
Kolumny pierwsza i trzecia są identyczne co jest dowodem poprawności prawa podwójnego przeczenia.
Przykład:
Jestem uczciwy = Nieprawda jest, że jestem nieuczciwy
U = ~(~U)
Definicja logiki dodatniej i ujemnej dla operatorów AND i OR:
Logika dodatnia (Y) to odpowiedź na pytanie kiedy dotrzymam słowa (wystąpi prawda), zaś logika ujemna (~Y) to odpowiedź na pytanie kiedy skłamię (wystąpi fałsz).
Związek logiki dodatniej z logiką ujemną opisuje równanie:
Y = ~(~Y) - prawo podwójnego przeczenia
Prawo przedszkolaka:
W dowolnej funkcji logicznej Y algebry Boole’a z operatorami AND i OR przejście do logiki przeciwnej uzyskujemy poprzez negację zmiennych i wymianę operatorów na przeciwne.
Przejście do logiki ujemnej metodą Wuja Zbója:
A.
Y=A+~B(C+~D)
Y = logika dodatnia
Kolejność wykonywania działań: nawiasy, AND, OR
B.
Uzupełnienie nawiasów i brakujących operatorów:
Y=A+[~B*(C+~D)]
C.
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów:
~Y = ~A*[B+(~C*D)]
~Y = logika ujemna
Kolejność wykonywania działań: nawiasy, OR, AND
Doskonale tu widać dlaczego w kroku B musieliśmy uzupełnić nawiasy i operatory. Zauważmy że w logice ujemnej zmienia się kolejność wykonywania działań !
O zmianie kolejności precyzyjnie informuje przeczenie przy funkcji Y, zatem krok B jest tu do pominięcia pod warunkiem, że będziemy pamiętać o zmianie kolejności wykonywania działań w logice ujemnej. Przy złożonych funkcjach bezpieczniej jest pamiętać o uzupełnieniu nawiasów.
Tam gdzie nawiasów nie ma (w naturalnej logice człowieka) krok B jest zbędny.
Związek logiki dodatniej i ujemnej opisuje równanie:
D.
Y=~(~Y)
Podstawiając B i C do D mamy prawo de’Morgana:
A+[~B*(C+~D)] = ~{~A*[B+(~C*D)]}
Logika dodatnia i ujemna w praktyce
Zdanie wypowiedziane:
A.
Możliwe, że jutro pójdę do kina
Matematycznie oznacza to:
Jutro pójdę do kina lub nie pójdę do kina
Y=K+~K
czyli:
Y=1 <=> K=1 lub ~K=1
Prawo algebry Boole’a:
K+~K=1
Czyli:
Cokolwiek bym jutro nie zrobił to nie mam szans na zostanie kłamcą
Zauważmy, że możliwe rozwiązania po fakcie są tu takie:
B.
Wczoraj byłem w kinie
Y=K
Y=1 <=> K=1 – prawdą jest że wczoraj byłem w kinie
K=1 – byłem w kinie
K=0 – nie byłem w kinie
C.
Wczoraj nie byłem w kinie
Y=~K
Y=1 <=> ~K=1 – prawdą jest że wczoraj nie byłem w kinie
~K=1 – nie byłem w kinie
~K=0 – byłem w kinie
Oczywiście matematycznie zachodzi:
K=1 # ~K=1
W równaniach algebry Boole’a wszelkie parametry sprowadzone są do jedynek, dzięki czemu możemy je usunąć otrzymując logikę symboliczną niezależną od bezwzględnych zer i jedynek.
K # ~K
Świętość algebry Kubusia:
1 = prawda
0=fałsz
zawsze i wszędzie !
Zauważmy, że bez logiki dodatniej i ujemnej powyższa świętość w zdaniach B i C leży w gruzach bowiem:
B.
Wczoraj byłem w kinie
Y=K =1
Prawdą jest (Y=1), że wczoraj byłem w kinie
C.
Wczoraj nie byłem w kinie
Y=~K = 0 ?! – bo jedynkę zużyliśmy wyżej na opis zupełnie czegoś innego !
Prawdą jest (Y=0 ?!), że wczoraj nie byłem w kinie
Jak widzimy, mielibyśmy sytuację, że prawda raz jest jedynką a raz zerem, co jest bezsensem.
To samo na innym przykładzie:
A.
Wczoraj padał deszcz
Y=P=1
Prawdą jest (Y=1), że wczoraj padał deszcz (P=1)
B.
Wczoraj nie padał deszcz
Y=~P=1
Prawdą jest (Y=1) że wczoraj nie padał deszcz (~P=1)
Oczywiście:
P=1 # ~P=1
Z powyższego powodu logika która operuje wyłącznie zerami i jedynkami nie ma żadnych szans na prawidłowy opis matematyczny naszego Wszechświata, gdzie logika ujemna i dodatnia jest powszechnym zjawiskiem.
4.1 Suma logiczna OR
Definicja ogólna:
Suma logiczna jest równa 1 wtedy i tylko wtedy gdy którakolwiek zmienna jest równa 1
Y=p+q
Zapis równoważny:
Y=p*q+p*~q+~p*q
Dowód zero-jedynkowy prawa przemienności i prawa de’Morgana:
Kod: |
p q Y=p+q Y=q+p ~Y=~(p+q)=~p*~q ~p ~q ~Y=~p*~q Y=~(~p*~q)=p+q
1 1 =1 =1 =0 0 0 =0 =1
1 0 =1 =1 =0 0 1 =0 =1
0 1 =1 =1 =0 1 0 =0 =1
0 0 =0 =0 =1 1 1 =1 =0
|
Trzecia kolumna to definicja zero-jedynkowa operatora OR.
Zauważmy, że w powyższej tabeli po stronie p i q wyczerpaliśmy wszystkie możliwe przypadki czyli wszystkie możliwe kombinacje zer i jedynek.
Dowodem zachodzenia prawa logicznego jest tożsamość kolumn wynikowych.
Kolumna wynikowa to wartość funkcji logicznej Y (lub ~Y) ustawianej na 1 albo 0 przez zmienne wejściowe p i q. Zauważmy, że kolumny wynikowe mogą występować w logice dodatniej (Y) albo ujemnej (~Y).
Dowodem istnienia logiki dodatniej i ujemnej w algebrze Boole’a są kolumny 5 i 8. W kolumnie 5 musieliśmy zapisać ~Y (nie ma innego wyjścia) co wymusza zapis ~Y w kolumnie 8 bo kolumny wynikowe 5 i 8 są identyczne.
CND
Najważniejsze prawa logiczne wynikające z powyższej tabeli:
1.
W sumie logicznej argumenty są przemienne dla dowolnych p i q
p+q = q+p
Trzecia i czwarta kolumna.
2.
Prawo de’Morgana w logice dodatniej:
Y = p+q = ~(~p*~q) – ostatnia kolumna
Prawo de’Morgana w logice ujemnej:
~Y=~(p+q) = ~p*~q – piąta kolumna
Oczywiście:
~Y=~(p+q) = p NOR q – definicja zero-jedynkowa operatora NOR (piąta kolumna)
W języku mówionym operator NOR nie jest używany bo można go łatwo zastąpić operatorem OR plus przeczeniem, co doskonale widać w powyższej tabeli. Nasz mózg to cwana bestia, minimalizuje ilość używanych operatorów w naturalnym języku mówionym. Formalnie można w języku mówionym używać operatorów ujemnych (NOR) - tyle tylko że żaden normalny człowiek tego nie zrozumie.
Powyższe dowody zero-jedynkowe wolne są od jakichkolwiek założeń pobocznych. W szczególności nie wiemy jeszcze jak te zera i jedynki poprawnie interpretować.
W NTI wartość funkcji logicznej ustawiana jest przez zmienne wejściowe p i q.
NTI rozróżnia świat niezdeterminowany gdzie mamy do czynienia z prawdą względną i fałszem względnym oraz świat zdeterminowany gdzie mamy do czynienia z prawdą bezwzględną i fałszem bezwzględnym (znane z góry).
Świat zdeterminowany
Pies ma cztery łapy i szczeka
Y=4L*S = 1*1=1
Świat niezdeterminowany
Pani w przedszkolu:
Jutro pójdziemy do kina
Y=K
czyli matematycznie:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1)
Zuzia do Jasia:
… a kiedy Pani skłamie ?
Jaś (lat 5)
Pani skłamie (~Y=1) gdy jutro nie pójdziemy do kina (~K=1)
~Y=~K
Mamy tu do czynienia z prawdą względną i fałszem względnym, czyli znamy z góry kiedy jutro Pani skłamie a kiedy dotrzyma słowa … i o to chodzi w logice w świecie niezdeterminowanym !
Oczywiście wszystko jest w rękach Pani, może dotrzymać słowa albo nie, bo ma wolną wolę.
4.2 Iloczyn logiczny AND
Definicja ogólna:
Iloczyn logiczny jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1
Y=p*q
Dowód zero-jedynkowy prawa przemienności i prawa de’Morgana:
Kod: |
p q Y=p*q Y=q*p ~Y=~(p*q)=~p+~q ~p ~q ~Y=~p+~q Y=~(~p+~q)=p*q
1 1 =1 =1 =0 0 0 =0 =1
1 0 =0 =0 =1 0 1 =1 =0
0 1 =0 =0 =1 1 0 =1 =0
0 0 =0 =0 =1 1 1 =1 =0
|
Trzecia kolumna to definicja zero-jedynkowa operatora AND.
Najważniejsze prawa logiczne wynikające z powyższej tabeli:
1.
W iloczynie logicznym argumenty są przemienne dla dowolnych p i q
p*q = q*p
Trzecia i czwarta kolumna.
2.
Prawo de’Morgana w logice dodatniej:
Y = p*q = ~(~p+~q) – ostatnia kolumna
Prawo de’Morgana w logice ujemnej:
~Y=~(p*q) = ~p+~q – piąta kolumna
4.3 Operatory implikacji
Aksjomatyczna definicja implikacji prostej:
Kod: |
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Jak widzimy wyłącznie dla sekwencji p=1 i q=0 wynik p=>q=0.
Aksjomatyczna definicje implikacji odwrotnej:
Kod: |
p q p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Jak widzimy wyłącznie dla sekwencji p=0 i q=1 wynik p~>q=0.
Oczywiście matematycznie zachodzi:
p=>q ## p~>q
bo to dwie różne definicje zero-jedynkowe.
Podstawowe prawa logiczne wiążące operatory implikacji:
Kod: |
p q p=>q p~>q ~p ~q ~p~>~q ~p=>~q
1 1 =1 =1 0 0 =1 =1
1 0 =0 =1 0 1 =0 =1
0 0 =1 =1 1 1 =1 =1
0 1 =1 =0 1 0 =1 =0
|
Kolumny od 1 do 4 to definicje implikacji prostej => i odwrotnej ~>.
Matematycznie zachodzi równanie ogólne implikacji:
p=>q = ~p~>~q ## p~>q = ~p=>~q
Analogicznie jak w operatorach OR i AND zachodzi:
p+q = ~(~p*~q) ## p*q = ~(~p+~q)
Cała tabela to matematyczny dowód praw Kubusia:
Kolumny 3 i 7:
p=>q = ~p~>~q – prawo zamiany operatora implikacji prostej => na implikacje odwrotną ~>
Kolumny 4 i 8:
p~>q = ~p=>~q – prawo zamiany operatora implikacji odwrotnej ~> na implikacje prostą =>
Sprawdźmy teraz czy argumenty w implikacji są przemienne. To najważniejsza i kluczowa sprawa dla wszelkich naszych przyszłych poczynań.
Kod: |
| Punkt | Punkt
| odniesienia | odniesienia
| p=>q | p~>q
| |
p q | p=>q q=>p | p~>q q~>p
1 1 | =1 =1 | =1 =1
1 0 | =0 =1 | =1 =0
0 0 | =1 =1 | =1 =1
0 1 | =1 =0 | =0 =1
|
Argumenty w operatorach implikacji nie są przemienne czyli:
p=>q # q=>p
Przykład:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1
P8=>P2=1 # P2=>P8=0 bo 2
p~.q # q~>p
Przykład:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8=1
P2~>P8=1 # P8~>P2=0
Dowód iż P8~>P2=0 jest banalny.
Wyrocznia implikacji, prawo Kubusia:
P8~>P2 = ~P8=>~P2=0 bo 2
Prawa strona jest fałszem, zatem lewa strona nie może być implikacja odwrotną prawdziwą.
4.4 Definicje implikacji w NTI
Definicja implikacji prostej:
p=>q
jeśli zajdzie p to musi => zajść q
Z czego wynika że p musi być wystarczające dla q
Plus musi być spełniona wyrocznia implikacji, prawo Kubusia:
p=>q = ~p~>~q
co wyklucza równoważność, gdzie warunek wystarczający p=>q jest identyczny
Definicja implikacji odwrotnej:
p~>q
Jeśli zajdzie p to może ~> zajść q
Plus musi być spełniona wyrocznia implikacji, prawo Kubusia:
p~>q = ~p=>~q
Prawo Kubusia oznacza, że p musi być konieczne dla q
Definicja implikacji odwrotnej podana przez wykładowcę logiki Volratha:
Jeśli p jest konieczne ~> dla q to zajście ~p wymusza => zajście ~q
p~>q = ~p=>~q
Wzorcowa implikacja prosta:
Jeśli liczba jest podzielna przez 8 to na pewno=> jest podzielna przez 2
P8=>P2=1
p=>q=1
P8 wystarcza dla P2 plus spełnione jest prawo Kubusia:
P8=>P2=~P8~>~P2
co wyklucza równoważność.
Wzorcowa implikacja odwrotna:
Jeśli liczba jest podzielna przez 2 to może być podzielna przez 8
P2~>P8=1
p~>q=1
P2 jest konieczne dla P8, co wymusza implikację odwrotną bo:
Jeśli p jest konieczne dla q to zajście ~p wystarcza dla zajścia ~q
Dziewicza definicja implikacji prostej:
Kod: |
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Dziewicza definicja implikacji odwrotnej:
Kod: |
p q p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Oczywiście matematycznie zachodzi:
p=>q ## p~>q
gdzie:
## - różne na mocy definicji
Wprowadzenie nowego symbolu ## jest tu koniecznie bowiem w algebrze Boole’a mamy:
prawda # fałsz
1#0
gdzie:
# - różne w znaczeniu jak wyżej, czyli jeśli po jednej stronie jest prawda to po drugiej stronie musi być fałsz.
4.5 Dowód wewnętrznej sprzeczności KRZ dla zdania wypowiedzianego p=>q
KRZ = Klasyczny Rachunek Zdań
Dowód formalny braku przemienności argumentów w implikacji prostej
Kod: |
p q p=>q=1 # q=>p=0 ## p~>q=1
1 1 =1 =1 =1
1 0 =0 =1 =1
0 0 =1 =1 =1
0 1 =1 =0 =0
P8 P2 P8=>P2=1 # P2=>P8=0 ## P2~>P8=1
|
Kolumny 3 i 4 są różne, zatem dla dowolnych p i q zachodzi:
p=>q=1 # q=>p=0
P8=>P2=1 # P2=>P8=0
czyli:
Jeśli p=>q=1 to q=>p=0
Jeśli P8=>P2=1 to P2=>P8=0
Odwrotnie nie zachodzi bo kontrprzykład:
Jeśli p=>q=0 to q=>p=1
Jeśli P3=>P8=0 to P8=>P3=0 – kontrprzykład
Dowód wewnętrznej sprzeczności KRZ
Wypowiadam wzorcową implikacje prostą:
jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1
p=>q=1
Implikacja odwrotna:
q=>p=0
P2=>P8=0
Oczywiście p~>q to fundamentalnie inny operator logiczny.
Na mocy definicji mamy tu:
p~>q=1
P2~>P8=1
Zauważmy, że w kolumnach 4 i 5 zachodzi:
q=>p=0 ## p~>q=1
P2=>P8=0 ## P2~>P8=1
bo nigdy nie będzie:
0=1 !
KRZ sugerując się równością kolumn wynikowych 4 i 5 błędnie zapisuje tu:
q=>p=0 = p~>q=1
P2=>P8=0 = P2~>P8=1
rozwalając totalnie całą algebrę Boole’a bo w wartościach logicznych zdań mamy tu:
0=1 – algebra Boole’a leży w gruzach
Zauważmy, że wprowadzenie nowego symbolu ## (różne na mocy definicji) nie ma żadnego wpływu na poprawność powyższego dowodu.
4.6 Dowód wewnętrznej sprzeczności KRZ dla zdania wypowiedzianego p~>q
Dowód formalny braku przemienności argumentów w implikacji odwrotnej
Kod: |
p q p~>q=1 # q~>p=0 ## p=>q=1
1 1 =1 =1 =1
1 0 =1 =0 =0
0 0 =1 =1 =1
0 1 =0 =1 =1
P2 P8 P2~>P8=1 # P8~>P2=0 ## P8=>P2=1
|
Wypowiadam wzorcową implikacje odwrotną:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8=1
P2 jest konieczne dla P8, zatem implikacja odwrotna prawdziwa.
Dowód iż zdanie P8~>P2 jest implikacja odwrotną fałszywą.
Jeśli liczba jest podzielna przez 8 to może być podzielna przez 2
P8~~>P2=1 bo 8
Dowód nie wprost.
Zakładamy że P8~>P2 jest implikacją odwrotną prawdziwą i korzystamy z wyroczni implikacji, prawa Kubusia:
P8~>P2 = ~P8=>~P2 =0 bo 2
Prawa strona jest fałszem zatem lewa nie może być implikacją odwrotną prawdziwą.
Zdanie P8~~>P2 jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy jedna prawda, warunek konieczny tu nie zachodzi.
Kolumny 3 i 4 są różne, zatem dla dowolnych p i q zachodzi:
p~>q=1 # q~>p=0
P2~>P8=1 # P8~>P2=0
czyli:
Jeśli p~>q=1 to q~>p=0
Jeśli P2~>P8=1 to P8~>P2=0
Odwrotnie nie zachodzi bo kontrprzykład:
Jeśli p~>q=0 to q~>p=1
Jeśli P3~>P8=0 to P8~>P3=0 – kontrprzykład
Prawdziwe jest:
P3~~>P8=1 bo 24
Dowód wewnętrznej sprzeczności KRZ
Wypowiadam wzorcową implikacje odwrotną:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8=1
p~>q=1
Implikacja po zamianie p i q:
q~>p=0
P8~>P2=0
Oczywiście p=>q to fundamentalnie inny operator logiczny.
Na mocy definicji mamy tu:
p=>q=1
P8=>P2=1
Zauważmy, że w kolumnach 4 i 5 zachodzi:
q~>p=0 ## p=>q=1
P8~>P2=0 ## P8=>P2=1
bo nigdy nie będzie:
0=1 !
KRZ sugerując się równością kolumn wynikowych 4 i 5 błędnie zapisuje tu:
q~>p=0 = p=>q=1
P8~>P2=0 = P8=>P2=1
rozwalając totalnie całą algebrę Boole’a bo w wartościach logicznych zdań mamy tu:
0=1 – algebra Boole’a leży w gruzach
Zauważmy, że wprowadzenie nowego symbolu ## (różne na mocy definicji) nie ma żadnego wpływu na poprawność powyższego dowodu.
Wniosek:
Mit o braku wewnętrznej sprzeczności w KRZ można między bajki włożyć
CND
4.7 Podsumowanie dowodu wewnętrznej sprzeczności KRZ
Zauważmy, że KRZ została obalona jej własnymi prawami bo …
1.
Symbol ## (różne na mocy definicji) nie jest znany w KRZ ale … to matematyczna oczywistość.
2.
~> to tylko symbol warunku koniecznego znany matematykom
3.
Nieprzemienność argumentów w implikacji to prymitywny dowód formalny działający dla dowolnych p i q, jest tu totalnie bez znaczenia czy wartości logiczne p i q są sobie równe czy nie (implikacja materialna). Ten dowód obowiązuje w implikacji dla dowolnych p i q i jest poprawny na gruncie KRZ i NTI !
4.
W dowodzie obalającym KRZ nie ma słowa o prawach Kubusia (poprawnych w KRZ – sic !), dowód opiera się tylko i wyłącznie na oczywistym braku przemienności argumentów w implikacji
5.
Nieprawdą też jest, że definicje implikacji z NTI nie przystają do KRZ, dowód znajdziemy w każdym podręczniku matematyki do I klasy LO gdzie pisze.
[link widoczny dla zalogowanych]
Cytat:
Jeżeli implikacja p=>q jest twierdzeniem, to p jest warunkiem wystarczającym na to, aby q, a q warunkiem koniecznym na to, aby p.
Oczywiście nie może być tak, że w matematyce zdanie jest implikacją wtedy i tylko wtedy gdy zachodzą warunki wystarczające/konieczne między p i q (brawa dla matematyków), a poza matematyką to te warunki mogą nie obowiązywać. To oczywisty bezsens bo nie ma dwóch definicji implikacji prostej, jednej dla matematyki i drugiej dla świata poza matematyką.
CND
5.0 Fantastycznie prosta algebra Kubusia
W poprzednich rozdziałach poznaliśmy fundamenty algebry Boole’a i algebry Kubusia widzianych od strony tabel zero-jedynkowych. W naturalnym języku mówionym żaden człowiek nie myśli tabelami zero-jedynkowymi.
Przeciętny człowiek od 5-cio latka po starca biegle posługuje się równaniami algebry Boole’a, czyli symboliczną algebrą Boole’a.
5.1 Rzeczywista budowa operatorów OR i AND
Definicja spójnika „lub” w logice dodatniej
Kod: |
Definicja spójnika „lub” w logice dodatniej bo Y
Y – dotrzymam słowa, wystąpi prawda
Y=p+q = p*q+p*~q+~p*q
p* q= Y
p*~q= Y
~p* q= Y
|
Definicje spójnika „lub” w logice ujemnej otrzymujemy poprzez totalną negacją wszystkich sygnałów bez zmiany operatorów.
Definicja spójnika „lub” w logice ujemnej
Kod: |
Definicja spójnika „lub” w logice ujemnej bo ~Y
~Y – skłamię, wystąpi fałsz
~Y=~p+~q = ~p*~q+~p*q+p*~q
~p*~q=~Y
~p* q=~Y
p*~q=~Y
|
Definicja spójnika „i” w logice dodatniej
Kod: |
Definicja spójnika „i” w logice dodatniej bo Y
Y – dotrzymam słowa, wystąpi prawda
Y=p*q
p* q= Y
|
Definicję spójnika „i” w logice ujemnej otrzymujemy poprzez totalną negację sygnałów bez wymiany operatorów.
Definicja spójnika „i” w logice ujemnej
Kod: |
Definicja spójnika „i” w logice ujemnej bo ~Y
~Y – skłamię, wystąpi fałsz
~Y=~p*~q
~p*~q=~Y
|
Definicje operatorów OR i AND
Definicję operatorów w logice dodatniej otrzymamy przyjmując dodatni punkt odniesienia czyli:
Y=1, ~Y=0
p=1, ~p=0
q=1, ~q=0
Operator OR(+)
Operator OR to złożenie spójnika „lub” w logice dodatniej ze spójnikiem „i” w logice ujemnej.
Definicja operatora OR(+)
Kod: |
Definicja spójnika „lub” w logice dodatniej bo Y
Y – dotrzymam słowa, wystąpi prawda
Y=p+q = p*q+p*~q+~p*q
p* q= Y
1 1 =1
p*~q= Y
1 0 =1
~p* q= Y
0 1 =1
Definicja spójnika „i” w logice ujemnej bo ~Y
~Y – skłamię, wystąpi fałsz
~Y=~p*~q
~p*~q=~Y
0 0 =0
|
Związek logiki dodatniej i ujemnej:
Y=~(~Y)
Podstawiając z powyższej definicji mamy prawo de’Morgana dla sumy logicznej:
p+q = ~(~p*~q)
Zaskoczenie dla wszystkich ziemskich matematyków jest z pewnością totalne !
1.
Prawo de’Morgana obowiązuje w jednej i tej samej definicji zero-jedynkowej
2.
Wynika z tego że operator OR(+) nie może istnieć bez operatora AND(*) !
Oczywiście spójnik „lub(+)” to zupełnie co innego niż operator OR(+) mimo że oznaczane identycznie:
OR = „+” w tej publikacji.
Wprowadzanie odrębnych symboli jest tu jednak zbyteczne bowiem wypowiadając dowolne zdanie mamy do czynienie wyłącznie ze spójnikami „lub” albo „i”.
Z definicji operatora AND(*) albo OR(+) korzystamy wyłącznie w celu uzyskania odpowiedzi na pytanie „Kiedy skłamię (wystąpi fałsz).
Przykład:
A.
Jutro pójdę do kina lub do teatru
Y=K+T
Matematycznie:
Dotrzymam słowa (Y=1), jeśli jutro pójdę do kina (K=1) lub do teatru (T=1)
Y=K+T
czyli:
Y=1 <=> K=1 lub T=1
…. a kiedy skłamię ?
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne
~Y=~K*~T
B.
Skłamię (~Y=1), jeśli jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y=~K*~T
czyli:
~Y=1 <=> ~K=1 i ~T=1
Korzystając z prawa de’Morgana mamy zdanie równoważne do A:
Y=K+T = ~(~k*~T)
czyli:
Nie może się zdarzyć ~(…), że jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
Y=~(~K*~T)
czyli:
Y=1 <=> ~[(~K=1) * (~T=1)]
Zdanie równoważne do zdania A uzyskamy tez bezpośrednio z definicji zero-jedynkowej spójnika „lub”:
Y=K+T = K*T + k*~T+~K*T
czyli:
Dotrzymam słowa (Y=1) gdy zdarzy się którykolwiek z powyższych przypadków:
K*T – pójdę do kina (K=1) i do teatru (T=1)
K*~T – pójdę do kina (K=1) i nie pójdę do teatru (~T=1)
~K*T – nie pójdę do kina (~K=1) i pójdę do teatru (T=1)
Oczywiście w przyszłości może zajść wyłącznie jedno z powyższych zdarzeń, nic innego nie jest możliwe.
Zupełnie inaczej jest w świecie zdeterminowanym gdzie wartości logiczne wszystkich parametrów są z góry znane. W tym przypadku już w momencie wypowiedzenia zdania znamy końcowe rozwiązanie.
Przykład:
A.
Zdanie prawdziwe (Y=1) gdy powiemy:
Dowolny kraj leży w Europie lub Azji lub Afryce lub Ameryce Pd. lub Ameryce Pn. lub Australii lub Antarktydzie
Y=E+Az+Af+APd+APn+Au+An =1
… kiedy zdanie będzie fałszywe ?
Przechodzimy do logiki ujemnej poprzez negacje zmiennych I wymianę operatorów na przeciwne.
~Y=~E*~Az*~Af*~APd*~APn*~Au*~An
czyli zdanie fałszywe w języku polskim:
B.
Zdanie fałszywe (~Y=1) gdy powiemy:
Dowolny kraj nie leży w Europie i nie leży w Azji i nie leży w Afryce i nie leży Ameryce Pd. i nie leży w Australii i nie leży w Antarktydzie.
~Y=~E*~Az*~Af*~APd*~APn*~Au*~An
Nauczyciel geografii:
Na jakim kontynencie leży Rosja
Na mocy definicji spójnika „lub” rozwijamy zdanie A w postaci sumy logicznej wszystkich możliwych kombinacji kontynentów. Dla siedmiu krajów takich członów będzie 128, ale tylko jeden z nich będzie prawdziwy.
R= E*Az*Af*APd*APn*Au*An + … + E*Az*~Af*~APd*~APn*~Au*~An + ….
Oczywiście wszystkie człony sumy logicznej będą fałszem z wyjątkiem wytłuszczonego, czyli mamy końcowe rozwiązanie:
R= E*Az*~Af*~APd*~APn*~Au*~An
co matematycznie oznacza:
R=1 <=> E=1 i Az=1 i ~Af=1 i ~APd i ~APn=1 i ~Au=1 i ~An=1
Prawdy powstałe z zaprzeczenia fałszu typu:
~Af=1 - Rosja nie leży w Afryce
usuwamy z końcowego rozwiązania bo są nadmiarowe i zbędne.
Stąd mamy końcowe rozwiązanie:
R=E*A`
czyli:
Rosja leży w Europie i Azji
Operator AND(*)
Operator AND to złożenie spójnika „i” w logice dodatniej i spójnika „lub” w logice ujemnej.
Kod: |
Definicja spójnika „i” w logice dodatniej bo Y
Y – dotrzymam słowa, wystąpi prawda
Y=p*q
p* q= Y
1 1 =1
Definicja spójnika „lub” w logice ujemnej bo ~Y
~Y – skłamię, wystąpi fałsz
~Y=~p+~q = ~p*~q+~p*q+p*~q
~p*~q=~Y
0 0 =0
~p* q=~Y
0 1 =0
p*~q=~Y
1 0 =0
|
Związek logiki dodatniej i ujemnej:
Y= ~(~Y)
Podstawiając z powyższej definicji mamy prawo de’Morgana dla iloczynu logicznego:
p*q = ~(~p+~q)
Przykład:
Jutro pójdę do kina i do teatru
Y=K*T
Matematycznie:
Dotrzymam słowa (Y=1), jeśli jutro pójdę do kina (K=1) i do teatru (T=1)
Y=K*T
czyli:
Y=1 <=> K=1 i T=1
…. a kiedy skłamię ?
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne
~Y=~K+~T
Skłamię (~Y=1), jeśli jutro nie pójdę do kina (~K=1) lub nie pójdę do teatru (~T=1)
~Y=~K+~T
czyli:
~Y=1 <=> ~K=1 lub ~T=1
KONIEC, to jest cała, banalna algebra Kubusia w operatorach AND(*) i OR(+), naturalna logika 5-cio latka
5.2 Definicje zero-jedynkowe spójników w implikacji
Definicje spójników „musi”=>, „może”~> i „może”~~>
Definicja spójnika „musi” =>
Kod: |
p q p=>q
1 1 =1 /p=>q=1
1 0 =0 /p=>~q=0
|
p=>q
Jeśli zajdzie p to musi zajść q
Z czego wynika że druga linia musi być twardym fałszem.
To samo w kwantyfikatorze:
Dla każdego x jeśli zajdzie p(x) to musi zajść q(x)
/\x p(x)=>q(x)
Oczywiście z tego wynika że druga linia musi być twardym fałszem
Definicja naturalnego „może” ~~>
Kod: |
p q p~~>q
1 1 =1 /p~~>q=1
|
p~~>q
Jeśli zajdzie p to może zajść q
Wystarczy znaleźć jeden przypadek dla którego zdania jest prawdziwe
Przykład:
Jeśli liczba jest podzielna przez 3 to może być podzielna przez 8
P3~~>P8=1 bo 24
Wystarczy jedna prawda.
Definicja spójnika „może” ~~> to nic innego jak kwantyfikator mały „istnieje” w NTI.
Istnieje takie x, że jeśli zajdzie p(x) to zajdzie q(x)
Vx p(x)=>q(x)
oczywiście tu symbol => oznacza słówko „to”, nic więcej
Definicje kwantyfikatorów w NTI:
=> - kwantyfikator duży „dla każdego”
~~> - kwantyfikator mały „istnieje”
W NTI kwantyfikatory działają wyłącznie na zbiorze aktualnym zdefiniowanym poprzednikiem p a nie na całej dziedzinie implikacji, czyli to są fundamentalnie inne definicje niż w KRZ.
Twierdzenie:
Kwantyfikator duży z NTI daje identyczne wyniki co do prawdziwości zdania jak kwantyfikator duży z KRZ.
Wniosek:
Kwantyfikator duży z KRZ można i trzeba zredukować do definicji kwantyfikatora dużego z NTI
Korzyści z tego oczywistego faktu będą zaskakujące:
A.
Zaczniemy wreszcie odróżniać implikację od równoważności w sposób bezpośredni
B.
Odkryjemy niesamowicie piękne i proste definicje implikacji prostej i odwrotnej z NTI plus prawa Kubusia
C.
Przestaniemy bredzić jakoby z fałszu mogła wynikać prawda
D.
Cala logika matematyczna w zakresie implikacji i równoważności zostanie sprowadzona do poziomu 5-cio letniego dziecka, naturalnego eksperta w tej dziedzinie
Definicja warunku koniecznego „może” ~>
Kod: |
p q p~>q
1 1 =1 /p~>q=1
1 0 =1 /p~~>~q=1
Proste rozumowanie:
Jeśli p jest konieczne dla q
to zajście ~p wymusza zajście ~q
stąd dalsza część definicji spójnika „może”~>
Prawo Kubusia:
p~>q = ~p=>~q
0 0 =1 /~p=>~q=1
0 1 =0 /~p=>q=0
|
p~>q
Jeśli zajdzie p to może zajść q
bo druga linia w tabeli p~~>~q też może być prawdą
Plus dodatkowo musi być spełnione prawo Kubusia:
p~>q = ~p=>~q
Z powyższego wynika że spójnik „może” ~> ze spełnionym warunkiem koniecznym to po prostu definicja implikacji odwrotnej !
Zauważmy, że kwantyfikator mały „istnieje”, leży i kwiczy w obsłudze spójnika „może” bo spójnik „może” występuje w logice w dwóch, fundamentalnie innych znaczeniach jak wyżej.
5.3 Rzeczywista budowa operatorów implikacji i równoważności
Operatory implikacji prostej =>, implikacji odwrotnej ~> i równoważności <=> to złożenie odpowiednich warunków wystarczających i koniecznych, zawsze jednego w logice dodatniej, drugiego w logice ujemnej.
Definicje wszystkich możliwych warunków wystarczających i koniecznych
A.
Definicja warunku wystarczającego w logice dodatniej bo q
Kod: |
Tabela A
p=>q =1
p=>~q=0
|
p=>q
Jeśli zajdzie p to musi zajść q
bo druga linia zajdzie p i nie zajdzie q nie ma prawa wystąpić, a po stronie p wykorzystane zostały wszystkie możliwe przypadki.
B.
Ten sam warunek wystarczający w logice ujemnej bo ~q:
Kod: |
Tabela B
~p=>~q=1
~p=>q=0
|
~p=>~q
Jeśli zajdzie ~p to na pewno zajdzie ~q
bo przypadek zajdzie ~p i zajdzie q nie ma prawa wystąpić
C.
Definicja warunku koniecznego w logice dodatniej bo q:
Kod: |
Tabela C
p~>q =1
p~~>~q=1
|
p~>q
jeśli zajdzie p to może zajść q
Bowiem przypadek zajdzie p i zajdzie ~q też może wystąpić, oczywiście po stronie p wykorzystaliśmy wszelkie możliwości matematyczne.
Plus musi być spełnione prawo Kubusia:
p~>q = ~p=>~q
D.
Ten sam warunek konieczny w logice ujemnej bo ~q:
Kod: |
Tabela D
~p~>~q=1
~p~~>q=1
|
~p~>~q
jeśli zajdzie ~p to może zajść ~q
Bowiem przypadek zajdzie ~p i zajdzie q też może wystąpić
Plus musi być spełnione prawo Kubusia:
~p~>~q = p=>q
Definicja ogólna operatorów w NTI
Operator logiczny to zawsze złożenie warunku koniecznego/wystarczającego w logice dodatniej z warunkiem koniecznym/wystarczającym w logice ujemnej bowiem wtedy tylko wtedy na wejściu (układu cyfrowego) otrzymamy wszystkie możliwe kombinacje zer i jedynek.
Dla powyższych tabel A, B, C i D mamy cztery możliwości matematyczne:
1.
A-D
Implikacja prosta
2.
C-B
Implikacja odwrotna
3.
A-B
Równoważność
4.
C-D
Równoważność fałszywa
Oczywiście NTI to logika symboliczna gdzie podkład zero-jedynkowy jest zbędny, żaden człowiek nie myśli w zerach i jedynkach. Podkład zero-jedynkowy doskonale pokazuje czy wyczerpaliśmy wszystkie przypadki w których na wejściu mamy wszystkie możliwe kombinacje zer i jedynek.
Definicje operatorowe operatorów logicznych z podkładem zero-jedynkowym.
Wszystkie zera i jedynki generujemy w logice dodatniej gdzie mamy:
p=1, ~p=0
q=1, ~q=0
1.
A-D
Implikacja prosta
Definicja:
p=>q
Jeśli zajdzie p to musi zajść q
Plus dodatkowo musi być spełniona wyrocznia implikacji, prawo Kubusia:
p=>q = ~p~>~q
co wyklucza ewentualną równoważność, gdzie występuje identyczny warunek wystarczający p=>q.
Kod: |
Definicja implikacji prostej
p=>q=1
1 1 =1
p=>~q=0
1 0 =0
… a jeśli zajdzie ~p
Prawo Kubusia:
p=>q = ~p~>~q
~p~>~q=1
0 0 =1
LUB
~p~~>q=1
0 1 =1
|
2.
C-B
implikacja odwrotna
Definicja:
p~>q
Jeśli zajdzie p to może zajść q
Plus dodatkowo musi być spełniona wyrocznia implikacji, prawo Kubusia:
p~>q = ~p=>~q
co wymusza warunek konieczny między p i q.
Kod: |
Definicja implikacji odwrotnej
p~>q=1
1 1 =1
LUB
p~~>~q=1
1 0 =1
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q
~p=>~q =1
0 0 =1
~p=>q=0
0 1 =0
|
3.
A-B
Równoważność
Definicja:
p<=>q = (p=>q)*(~p=>~q)
Równoważność to tylko warunki wystarczające zachodzące w stronę p=>q i ~p=>~q, to nie są implikacje proste !
Prawo kontrapozycji poprawne w równoważności:
~p=>~q = q=>p
Stąd mamy równoważną definicję równoważności uwielbianą przez matematyków:
p<=>q = (p=>q)*(q=>p)
Kod: |
Definicja równoważności
p<=>q = (p=>q)*(~p=>~q)
p=>q =1
1 1 =1
p=>~q=0
1 0 =0
… a jeśli zajdzie ~p ?
~p<=>~q = (~p=>~q)*(p=>q)
~p=>~q=1
0 0 =1
~p=>q=0
0 1 =0
|
Gdzie:
p=>q i ~p=>~q
to tylko warunki wystarczające definiowane dwoma liniami tabeli zero-jedynkowej, to nie są implikacje proste !
4.
C-D
Równoważność fałszywa
Definicja:
p<~>q = (p~>q)*(~p~>~q)
Kod: |
p<~>q = (p~>q)*(~p~>~q)
p~>q =1
1 1 =1
p~~>~q =1
1 0 =1
…. a jeśli zajdzie ~p ?
~p<~>~q = (~p~>~q)*(p~>q)
~p~>~q =1
0 0 =1
~p~~>q =1
0 1 =1
|
Doskonale widać definicję operatora FILL, same jedynki w wyniku, co nie ma nic wspólnego z równoważnością p<=>q.
|
|
Powrót do góry |
|
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35331
Przeczytał: 23 tematy
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Nie 11:36, 23 Sty 2011 Temat postu: |
|
|
6.0 Algebra Kubusia w zbiorach
Działanie operatorów implikacji i równoważności można bardzo ładnie zilustrować przy pomocy zbiorów.
6.1 Podstawowe definicje z teorii zbiorów w NTI
Pojęcie zbioru jako zbioru przypadkowych elementów jest matematycznie bez sensu.
Jednorodność zbioru:
Zbiór musi być jednorodny w określonej dziedzinie
Oznacza to, że dla dowolnego zbioru A musi istnieć zbiór ~A będący dopełnieniem zbioru A do określonej dziedziny.
Przykład 1
P – zbiór wszystkich psów
Dziedzina:
ZWZ = zbiór wszystkich zwierząt
Dopełnienie ~P:
~P = wszystkie inne zwierzęta za wyjątkiem psów
Oczywiście matematycznie zachodzi:
ZWZ=P+~P
oraz:
P+~P=1
P*~P=0
Przykład 2
P2 – zbiór liczb podzielnych przez 2
Dziedzina:
LN = zbiór liczb naturalnych
Dopełnienie ~P2:
~P2 – zbiór liczb naturalnych niepodzielnych przez 2
Oczywiście matematycznie zachodzi:
LN=P2+~P2
P2+~P2=1
P2*~P2=0
W implikacji prostej => w NTI p musi być podzbiorem q np.
Jeśli zwierze jest psem to ma cztery łapy
P=>4L
Zbiór psów jest tu tylko podzbiorem zwierząt mających cztery łapy.
Z punktu odniesienia NTI fałszywe są idiotyzmy rodem z KRZ w stylu:
Jeśli pies ma cztery łapy to księżyc krąży wokół ziemi
4L=>KK
Implikacja prawdziwa w wariatkowie … czyli KRZ
W NTI interesuje nas pojęcie zbioru i operacje na zbiorach w odniesieniu do implikacji i równoważności.
Podstawowe definicje:
Dziedzina:
Implikacja:
p=>q
Jeśli p to q
Równoważność
p<=>q
p wtedy i tylko wtedy gdy q
Dziedzina to kompletny zbiór na którym operuje implikacja lub równoważność
W NTI musi być spełnione:
p+~p=1 – dziedzina po stronie p
q+~q=1 – dziedzina po stronie q
Zbiór bieżący (aktualny):
Zbiór bieżący (aktualny) to zbiór na którym aktualnie pracujemy, zdefiniowany szczegółowo w poprzedniku zdania „Jeśli…to…”
Operacje na zbiorach dla potrzeb NTI:
1.
Zbiory tożsame = identyczne
TR = zbiór trójkątów równobocznych
KR = zbiór trójkątów o równych kątach
Oczywiście zachodzi tożsamość:
Zbiór trójkątów równobocznych = Zbiór trójkątów o równych kątach
Zbiór TR = Zbiór KR
2.
Iloczyn zbiorów = wspólna cześć zbiorów bez powtórzeń (operacja AND)
Y=A*B
A=[1,2], B=[1,2,3,4]
Y=A*B=[1,2]
3.
Suma logiczna zbiorów = wszystkie elementy zbiorów bez powtórzeń (operacja OR)
Y=A+B
A=[1,2], B=[1,2,3,4]
Y=A+B = [1,2,3,4]
4.
Różnica zbiorów A-B = elementy zbioru A pomniejszone o cześć wspólna zbiorów A i B
Y=A-B
A=[1,2,3,4], B=[1,2]
Y=A-B = [3,4]
Y=B-A = 0 – zbiór pusty !
5.
Zbiór pusty = brak wspólnej części zbiorów w operacji AND, albo różnica zbiorów pusta jak wyżej
Y=A*B=0
A=[1,2], B=[3,4]
Y=A*B =0 – brak części wspólnej, zbiór pusty !
Twierdzenie – jedno z najważniejszych w NTI:
Przy określaniu prawdziwości konkretnego zdania zawsze iterujemy po zbiorze bieżącym, zdefiniowanym w poprzedniku zdania „Jeśli…to…”.
Iterowanie po całej dziedzinie jest bez sensu bowiem nie ma to nic wspólnego z prawdziwością analizowanego zdania. Co więcej, dla zdań spoza zbioru bieżącego analizowane zdanie jest po prostu FAŁSZYWE !
Przykład:
Jeśli liczba jest podzielna przez 3 to może być podzielna przez 8
P3~~>P8=1 bo 24
Dziedzina = zbiór wszystkich liczb naturalnych
P3 = zbiór bieżący (aktualny) zdefiniowany w poprzedniku
P3 = [3,6,9…] - zbiór liczb podzielnych przez 3
Uwaga:
Powyższe zdanie dla zbioru ~P3 po stronie p jest fałszywe.
Przykład implikacji prostej:
Jeśli liczba jest podzielna przez 8 to (na pewno) jest podzielna przez 2
P8=>P2
Spójnik "na pewno" jest w logice domyślny
Dziedzina = zbiór liczb naturalnych
Zbiór bieżący na którym pracujemy w tym zdaniu definiuje poprzednik implikacji:
P8 = [8,16,24…] – zbiór liczb podzielnych przez 8
Powyższe zdanie jest fałszywe dla zbioru liczb ~P8 po stronie p.
6.2 Implikacja prosta w zbiorach
Z rysunku widzimy, że warunkiem zaistnienia implikacji prostej => jest aby zbiór p był podzbiorem zbioru q bowiem wtedy i tylko wtedy zdanie będzie implikacja prostą.
Dziedzina w której operuje powyższy schemat:
Dziedzina = p+~p = q+~q
co doskonale widać na rysunku.
Wynika z tego, że zbiory p i q musza należeć do tej samej dziedziny.
Definicja operatorowa implikacji prostej:
Kod: |
A:
Jeśli zajdzie p to na pewno => zajdzie q
p=>q =1
p*q=1 – iloczyn logiczny zbiorów p i q (zielony obszar)
1 1 =1
stąd wynika:
B:
Jeśli zajdzie p to na pewno zajdzie ~q
p=>~q=0
p*~q=0 – zbiór pusty, bo zbiory p i ~q są rozłączne !
1 0 =0
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p=>q = ~p~>~q
Stąd:
C:
Jeśli zajdzie ~p to może zajść ~q
~p~>~q=1
~p*~q=1 – iloczyn logiczny zbiorów ~p i ~q (czerwony obszar)
0 0 =1
LUB
D:
Jeśli zajdzie ~p to może zajść q
~p~~>q=1
~p*q=1 – iloczyn logiczny zbiorów ~p i q (żółty obszar)
0 1 =1
|
Doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem A:
p=1, ~p=0
q=1, ~q=0
Przykłady:
A.
Jeśli zwierze jest psem to ma cztery łapy
P=>4L
Implikacja prosta: p musi być podzbiorem q
Pies jest podzbiorem zwierząt mających 4 łapy, z czego wynika że istnieje żółty zbiór q-p, zdanie jest implikacja prostą.
B.
Jeśli jutro będzie padało to na pewno będzie pochmurno
P=>CH
Implikacja prosta: p musi być podzbiorem q
Deszcz jest podzbiorem stanu „pochmurne niebo”, co oznacza że może nie padać a chmury mogą być. Wynika z tego istnienie stanu q-p, czyli mamy sytuację „brak deszczu i jest pochmurno”, zatem zdanie jest implikacją prostą.
C.
Jeśli liczba jest podzielna przez 8 to na pewno jest podzielna przez 2
P8=>P2
Implikacja prosta: p musi być podzbiorem q
Zbiór P8 jest podzbiorem zbioru P2, z czego wynika że istnieje zbiór q-p, zdanie jest implikacja prostą.
… i teraz uwaga !
D.
Jeśli trójkąt jest równoboczny to ma kąty równe
TR=>KR
Zbiór trójkątów równobocznych jest dokładnie tym samym zbiorem co zbiór trójkątów o równych kątach. Wynika z tego że żółty zbiór q-p jest zbiorem pustym, co oznacza że całe zdanie jest tylko warunkiem wystarczającym wchodzącym w skład równoważności o następującej definicji.
p<=>q = (p=>q)*(q=>p)
czyli:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(KR=>TR)
Przykład analizy implikacji prostej w NTI
Kod: |
A.
Jeśli zwierze jest psem to na pewno => ma cztery łapy
P=>4L=1 bo pies, twarda prawda, gwarancja matematyczna
1 1 =1
Bycie psem jest warunkiem wystarczającym, aby mieć cztery łapy
plus spełnione jest tu prawo Kubusia co oznacza że zdanie spełnia definicję zero-jedynkową implikacji prostej.
stąd:
B.
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L=0 bo wszystkie psy maja cztery łapy
1 0 =0
… a jeśli zwierzę nie jest psem ?
Prawo Kubusia:
P=>4L= ~P~>~4L
C.
Jeśli zwierzę nie jest psem to może ~> nie mieć czterech łap
~P~>~4L=1 bo wąż, kura
0 0 =1
LUB
D.
Jeśli zwierze nie jest psem to może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń, koń
0 1 =1
|
Doskonale widać tabele zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
P=1, ~P=0
4L=1, ~4L=0
Zdanie d nie może być implikacją odwrotną prawdziwą.
Dlaczego ?
Dowód nie wprost:
Załóżmy że d jest implikacją odwrotna i zastosujmy wyrocznie implikacji, prawo Kubusia:
D: ~P~~>4L = B: P=>~4L=0
Prawa strona jest twardym fałszem, zatem lewa nie może być implikacja odwrotna prawdziwą, co oznacza, że w zdaniu D nie zachodzi warunek konieczny.
Prawdziwość zdania D określa wzór:
(~P~>4L)+(~P~~>4L) = 0 + 1 =1
Zdanie D jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy znaleźć jeden przypadek prawdziwy.
6.3 implikacja odwrotna w zbiorach
Doskonale widać, że w tym przypadku zbiór q musi być podzbiorem zbioru p. Wtedy i tylko wtedy zdanie będzie spełniało definicję implikacji odwrotnej.
Dziedzina w której operuje powyższy schemat:
Dziedzina = p+~p = q+~q
co doskonale widać na rysunku.
Wynika z tego, że zbiory p i q musza należeć do tej samej dziedziny.
Definicja operatorowa implikacji odwrotnej:
Kod: |
A:
Jeśli zajdzie p to może zajść q
p~>q =1
p*q=1 – iloczyn logiczny zbiorów p i q (zielony obszar)
1 1 =1
LUB
B:
Jeśli zajdzie p to może zajść ~q
p~~>~q=1
p*~q=1 – iloczyn logiczny zbiorów p i ~q (żółty obszar)
1 0 =1
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p~>q = ~p=>~q
Stąd:
C:
Jeśli zajdzie ~p to na pewno zajdzie ~q
~p=>~q=1
~p*~q=1 – iloczyn logiczny zbiorów ~p i ~q (czerwony obszar)
0 0 =1
Stąd:
D:
Jeśli zajdzie ~p to na pewno zajdzie q
~p=>q=0
~p*q=0 – zbiór pusty, bo zbiory ~p i q są rozłączne !
0 1 =0
|
Doskonale widać tabelę zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem A:
p=1, ~p=0
q=1, ~q=0
Przykłady:
A.
jeśli zwierze ma cztery łapy to może być psem
4L~>P
Implikacja odwrotna: q musi być podzbiorem p
Pies jest podzbiorem zwierząt mających 4 łapy, z czego wynika że istnieje żółty zbiór p-q, zdanie jest implikacja prostą.
B.
Jeśli jutro będzie pochmurno to może padać
CH~>P
Implikacja odwrotna: q musi być podzbiorem p
Deszcz jest podzbiorem stanu „pochmurne niebo”, co oznacza że może nie padać a chmury mogą być. Wynika z tego istnienie stanu p-q, czyli mamy sytuację „brak deszczu i jest pochmurno”, zatem zdanie jest implikacją prostą.
C.
Jeśli liczba jest podzielna przez 2 to może być podzielna przez 8
P2~>P8
Implikacja odwrotna: q musi być podzbiorem p
Zbiór P8 jest podzbiorem zbioru P2, z czego wynika że istnieje zbiór p-q, zdanie jest implikacja prostą.
… i teraz uwaga !
D.
Jeśli trójkąt jest równoboczny to ma kąty równe
TR=>KR
Zbiór trójkątów równobocznych jest dokładnie tym samym zbiorem co zbiór trójkątów o równych kątach. Wynika z tego że żółty zbiór p-q jest zbiorem pustym, co oznacza że całe zdanie jest tylko warunkiem wystarczającym wchodzącym w skład równoważności o następującej definicji.
p<=>q = (p=>q)*(q=>p)
czyli:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(KR=>TR)
Przykład analizy implikacji odwrotnej w NTI
Kod: |
A.
Jeśli zwierze ma cztery łapy to może ~> być psem
4L~>P =1 bo pies
1 1 =1
Cztery łapy są konieczne aby być psem, co wymusza implikację odwrotną prawdziwą
LUB
B.
Jeśli zwierze ma cztery łapy to może ~~> nie być psem
4L~~>~P=1 bo słoń, koń
1 0 =1
… a jeśli zwierze nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
C.
Jeśli zwierze nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1 – twarda prawda, gwarancja matematyczna
0 0 =1
stąd:
D.
Jeśli zwierze nie ma czterech łap to na pewno => jest psem
~4L=>P=0
0 1 =0
|
Doskonale widać tabele zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
4L=1, ~4L=0
P=1, ~P=0
Zdanie B nie może być implikacją odwrotną prawdziwą.
Dowód.
Zakładamy że B jest implikacją odwrotną prawdziwa i korzystamy z prawa Kubusia:
B: 4L~>~P = D: ~4L=>P=0
Prawa strona jest twardym fałszem zatem B nie może być implikacją odwrotną.
Zdanie B jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy znaleźć jeden przypadek czyniący to zdanie prawdziwym.
6.4 Równoważność w zbiorach
W równoważności zbiór p jest dokładnie tym samym zbiorem co zbiór q, inaczej wypowiedzianym.
Wynika z tego że wykluczona jest tu implikacja bowiem p nie jest podzbiorem zbioru q, czyli różnica zbiorów:
p-q=0 – zbiór pusty
q-p=0 – zbiór pusty
Oczywiście dziedzina w której tu operujemy jest następująca:
Dziedzina = p+~p = q+~q
Przykład z naszego rysunku:
A.
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR
Dziedzina to zbiór wszystkich trójkątów:
Dziedzina = TR+~TR = KR+~KR
W przypadku równoważności możliwe są dwie równoważne definicje operatorowe.
I.
Definicja wynikła bezpośrednio z definicji zero-jedynkowej równoważności.
Kod: |
Definicja równoważności
p<=>q = (p=>q)*(~p=>~q)
A:
p=>q =1
p*q=1 – iloczyn logiczny zbiorów p i q, to są identyczne zbiory ! (zielony kolor)
1 1 =1
B:
p=>~q=0
p*~q=0 – zbiór pusty, bo zbiory p i ~q są rozłączne, co widać na rysunku
1 0 =0
… a jeśli zajdzie ~p ?
~p<=>~q = (~p=>~q)*(p=>q)
C:
~p=>~q=1
~p*~q=1 – iloczyn logiczny zbiorów ~p i ~q, to są identyczne zbiory ! (kolor czerwony)
0 0 =1
D:
~p=>q=0
~p*q=0 – zbiór pusty, bo zbiory ~p i q są rozłączne, co widać na rysunku
0 1 =0
|
Gdzie:
p=>q i ~p=>~q
to tylko warunki wystarczające definiowane dwoma liniami tabeli zero-jedynkowej, to nie są implikacje proste !
II.
Definicja równoważna wynikająca bezpośrednio z diagramu równoważności wyżej.
Identyczność zbiorów p i q jest dowodem równoważności:
p<=>q = (p=>q)*(q=>p)
bowiem wykluczona jest tu implikacja gdzie wymagane jest aby zbiór p-q lub q-p nie był zbiorem pustym.
W przypadku identycznych zbiorów p i q zachodzi:
p-q=0 – zbiór pusty
q-p=0 – zbiór pusty
stąd:
Definicja równoważna równoważności uwielbiana przez matematyków.
Kod: |
p<=>q = (p=>q)*(q=>p)
A:
p=>q=1
p*q=1 – iloczyn logiczny zbiorów p i q, to są identyczne zbiory ! (kolor zielony)
1 1 =1
B:
p=>~q=0
p*~q=0 – zbiór pusty, bo zbiory p i ~q są rozłączne, co widać na rysunku
W równoważności zachodzi przemienność argumentów, stąd:
q<=>p = (q=>p)*(p=>q)
A1:
q=>p=1
q*p=1 – iloczyn logiczny zbiorów q i q, to są identyczne zbiory (kolor zielony)
1 1 =1
B1:
q=>~p=0
q*~p=0 - zbiór pusty, bo zbiory q i ~p są rozłączne, co widać na rysunku
1 0 =0
|
Doskonale tu widać, że równoważność to iloczyn logiczny dwóch warunków wystarczających:
p=>q – warunek wystarczający definiowany liniami A i B w powyższej tabeli
q=>p - warunek wystarczający definiowany liniami A1 i B1 w powyższej tabeli
To nie sa implikacje proste, bowiem w równoważności nie może być mowy o „rzucaniu moneta”, czyli o warunku koniecznym p~>q.
Przykład analizy równoważności w NTI
Kod: |
TR<=>KR = (TR=>KR)*(~TR=>~KR)
A.
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1 – twarda prawda
1 1 =1
stąd:
B.
Jeśli trójkąt jest równoboczny to na pewno => nie ma kątów równych
TR=>~KR=0
1 0 =0
… a jeśli trójkąt nie jest równoboczny ?
TR<=>KR = ~TR<=>~KR = (~TR=>~KR)*(TR=>KR)
C.
Jeśli trójkąt nie jest równoboczny to na pewno => nie ma kątów równych
~TR=>~KR=1
0 0 =1
stąd:
D.
Jeśli trójkąt nie jest równoboczny to na pewno => ma kąty równe
~TR=>KR=0
0 1 =0
|
Doskonale widać tabele zero-jedynkową równoważności dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
TR=1, ~TR=0
KR=1, ~KR=0
6.5 Naturalny spójnik „może’ ~~> w zbiorach
Posłużymy się tu konkretnym przykładem.
1.
Jeśli liczba jest podzielna przez 8 to jest podzielna przez 3
P8=>P3
W języku mówionym spójnik „na pewno” => jest domyślny i nie musi być wypowiadany.
Wynika z tego zdanie równoważne do 1.
2.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 3
P8=>P3=0 bo 8
Sprawdźmy czy możliwa jest tu implikacja odwrotna:
3.
Jeśli liczba jest podzielna przez 3 to może ~> być podzielna przez 8
P3~>P8=0
Dowód:
Załóżmy, że zdanie 3 jest implikacją odwrotna i zastosujmy wyrocznię implikacji, prawo Kubusia:
P3~>P8 = ~P3=>~P8 =0 bo 8
Prawa strona tożsamości jest fałszem, zatem lewa nie może być implikacja odwrotną, warunek konieczny między p i q tu nie zachodzi.
Zdanie 1 jest prawdziwe z naturalnym spójnikiem ‘może” ~~>, wystarczy jeden przypadek prawdziwy.
A.
Jeśli liczba jest podzielna przez 8 to może ~~> być podzielna przez 3
P8~~>P3=1 bo 24
Analiza zero-jedynkowa tego zdania przez wszystkie możliwe przypadki jest następująca:
Kod: |
A:
Jeśli liczba jest podzielna przez 8 to może ~~> być podzielna przez 3
P8~~>P3=1 bo 24
B:
Jeśli liczba jest podzielna przez 8 to może ~~> nie być podzielna przez 3
P8~~>~P3=1 bo 8
C:
Jeśli liczba nie jest podzielna przez 8 to może ~~> nie być podzielna przez 3
~P8~~>~P3=1 bo 5
D:
Jeśli liczba nie jest podzielna przez 8 to może ~~> być podzielna przez 3
~P8~~>P3=1 bo 3
|
ilustracja graficzna powyższej analizy jest następująca:
7.0 Błędne użycie symboli „=” i <=> w KRZ
W Klasycznym Rachunku Zdań znak tożsamości i równoważności używany jest dokładnie odwrotnie niż w NTI.
zbigniewmiller napisał: | Prawo de’Morgana "p+q=~(~p*~q)" tak nie "brzmi”, to jest nonsens,
brzmi tak: p+q<=>~(~p*~q)
jeśli zaś piszesz „=”,to wartościujesz i należy pisać:
w(p+q)=w(~(~p*~q)) niektórzy piszą V zamiast w, od value.... |
Jak jest poprawnie ?
Fragment z NTI …
Definicja negacji:
1=~0
0=~1
Zmienna binarna
Zmienna binarna to zmienna, mogąca przyjmować w osi czasu wyłącznie dwie wartości logiczne 0 albo 1.
Nazwa zmiennej binarnej to dowolny symbol (litera alfabetu lub słowo) z wyjątkiem litery Y zwyczajowo zarezerwowanej dla funkcji logicznej.
Funkcja logiczna
Funkcja logiczna Y to funkcja n-zmiennych binarnych połączonych operatorami AND(*) lub OR(+).
Przykład:
Y = A*(B+C)
Symboliczna definicja negacji:
Y=~A
gdzie:
A - zmienna binarna
Y - funkcja logiczna
Wszystko jest w KRZ nie tak.
Poprawnie powinno być dokładnie odwrotnie niż w KRZ czyli:
Tu stawiamy znak tożsamości !
Y=A*(B+C)
gdzie:
Y - wyjście cyfrowe (funkcja logiczna) przyjmująca w osi czasu wartości 0 albo 1 w zależności od aktualnej wartości zmiennych A, B i C.
... a tu stawiamy znak równoważności "wtedy i tylko wtedy" !
Y=1 <=> A=1 i (B=1 lub C=1)
Odwrotnie to bezsens !
Tabela zero-jedynkowa dla funkcji:
Y = A*(B+C)
Wygląda tak.
Kod: |
A B C B+C Y=A*(B+C)
0 0 0 0 0
0 0 1 1 0
0 1 0 1 0
0 1 1 1 0
1 0 0 0 0
1 0 1 1 1
1 1 0 1 1
1 1 1 1 1
|
Zauważmy, że w tabeli zero-jedynkowej (dowodzie formalnym w algebrze Boole’a !) widać dokładnie to co zapisałem !
Y=1 <=> A=1 i (B=1 lub C=1)
Czy ktokolwiek ma jeszcze cień wątpliwości że:
A.
Tu musimy użyć znaku tożsamości !
Y=A*(B+C)
B.
… a tu musimy użyć symbolu "wtedy i tylko wtedy" <=> !
Y=1 <=> A=1 i (B=1 lub C=1)
Wystąpi prawda (Y=1) <=> A=1 i (B=1 lub C=1)
Czyli dokładnie odwrotnie niż w KRZ !
Jedziemy dalej !
… a kiedy zdanie A będzie fałszywe ?
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów w zdaniu A (prawo przedszkolaka):
C.
~Y=~A+(~B*~C)
czyli:
Wystąpi fałsz (~Y=1) <=> ~A=1 lub (~B=1 i ~C=1)
CND
Związek logiki dodatniej i ujemnej:
Y=~(~Y)
Podstawiając A i C mamy prawo de’Morgana:
D.
Y = ~(~Y) = A*(B+C) = ~[~A+(~B*~C)]
Zauważmy teraz, że skoro w równaniach A i C użycie znaku „wtedy i tylko wtedy” <=> było idiotyzmem, to również nie wolno użyć znaku <=> w równaniu D !
W równaniu D po obu stronach tożsamości mamy identyczną funkcje logiczną, czyli to jest tożsamość matematyczna !
Jeśli w równaniu D wstawimy znak równoważności to na wyjściu otrzymamy ciągłą jedynkę, która ma totalnie zero wspólnego z funkcja logiczną po lewej i po prawej stronie w tożsamości wyżej !
Nasz kompletny przykład w dowodzie formalnym (tabeli zero-jedynkowej):
Kod: |
A B C B+C Y=A*(B+C) ~A ~B ~C ~B*~C ~Y=~A+(~B*~C) Y=~(~Y)
0 0 0 0 0 1 1 1 1 1 0
0 0 1 1 0 1 1 0 0 1 0
0 1 0 1 0 1 0 1 0 1 0
0 1 1 1 0 1 0 0 0 1 0
1 0 0 0 0 0 1 1 1 1 0
1 0 1 1 1 0 1 0 0 0 1
1 1 0 1 1 0 0 1 0 0 1
1 1 1 1 1 0 0 0 0 0 1
|
W powyższej tabeli również widać doskonałość tego:
A.
Tu musimy użyć znaku tożsamości:
~Y=~A+(~B*~C)
Bo funkcja logiczna ~Y w osi czasu przyjmuje wyłącznie wartości 0 albo 1 w zależności od zmiennych wejściowych ~A, ~B, ~C.
B.
… a tu musimy użyć znaku „wtedy i tylko wtedy” <=>:
Wystąpi fałsz (~Y=1) <=> ~A=1 lub (~B=1 i ~C=1)
co doskonale widać w powyższej tabeli zero-jedynkowej !
Odwrotnie, czyli tak jak w KRZ to idiotyzm !
Doskonale widać tożsamość kolumn piątej i ostatniej co jest dowodem poprawności prawa de’Morgana:
Y = ~(~Y) = A*(B+C) = ~[~A+(~B*~C)]
Przykład z naturalnego języka mówionego:
A.
Jutro pójdę do parku oraz do kina lub do teatru
Y=P*(K+T)
Czyli matematycznie:
Dotrzymam słowa (Y=1) <=> jeśli jutro pójdę do parku (P=1) i [do kina (K=1) lub do teatru (T=1)]
Y=P*(K+T)
czyli:
B.
Y=1 <=> P=1 i [K=1 lub T=1)
… a kiedy skłamie ?
Przejście z równaniem A do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne (prawo przedszkolaka)
~Y=~P+(~K*~T)
C.
Skłamię (~Y=1) <=> jeśli jutro nie pójdę do parku (~P=1) lub [nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)]
~Y=~P+(~K*~T)
czyli:
D.
~Y=1 <=> ~P lub [~K=1 i ~T=1]
Wniosek:
KRZ do piachu ….
Koniec 2010-12-24
|
|
Powrót do góry |
|
|
|
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach
|
fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
|