|
ŚFiNiA ŚFiNiA - Światopoglądowe, Filozoficzne, Naukowe i Artystyczne forum - bez cenzury, regulamin promuje racjonalną i rzeczową dyskusję i ułatwia ucinanie demagogii. Forum założone przez Wuja Zbója.
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35367
Przeczytał: 20 tematów
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Czw 22:29, 18 Mar 2010 Temat postu: Nowa Teoria Implikacji v. Beta C |
|
|
Credo NTI
Jak logicznie myślimy, tak matematycznie zapisujemy. Mówimy „NIE” zapisujemy (~), mówimy „i” zapisujemy AND(*), mówimy “lub” zapisujemy OR(+), w implikacji mówimy “musi” zapisujemy ( =>), mówimy “może” zapisujemy (~> lub ~~>).
Algebra Kubusia
Matematyka języka mówionego
Części:
Część I NTI - Operatory AND i OR
Część II Nowa teoria implikacji
Część III NTI Fantastyczna dyskusja z ateisty.pl
Zalecenia dla czytelnika:
Przed czytaniem tej części NTI zaleca się przeczytanie:
Część I NTI - Operatory AND i OR
Zawodowców proszę o przeczytanie przynajmniej pkt. 3.1, jest tam trochę nowości nieznanych człowiekowi np. logika dodatnia i ujemna w algebrze Boole’a.
Część III
Nowa Teoria Implikacji
Autor: Kubuś - wirtualny Internetowy Miś
Naszym dzieciom dedykuję
W pracach nad teorią implikacji bezcennej pomocy udzielili Kubusiowi przyjaciele:
Emde (sfinia), Fizyk (ateista.pl), HeHe (ateista.pl), Irbisol (sfinia), Macjan (sfinia), Miki (sfinia), NoBody (ateista.pl), Rafał3006 (sfinia), Rexerex (ateista.pl), Rogal (matematyka.pl), tomektomek (ateista.pl), Uczy (wolny), Volrath (sfinia), Windziarz (ateista.pl), WujZbój (sfinia), Wyobraźnia (ateista.pl) i inni
Wielkie dzięki, Kubuś !
Szczególne podziękowania Wujowi Zbójowi za jego nieskończoną cierpliwość w dyskusjach z Kubusiem, Vorathowi za decydującą o wszystkim dyskusję oraz Fizykowi i Windziarzowi za inspirację do napisania końcowej wersji NTI.
Człowiek poszukuje matematycznej wersji implikacji którą sam się posługuje od 2500 lat, do tej pory bezskutecznie (Emde).
To już historia, bowiem w Internecie pojawił się Kubuś.
Kim jest Kubuś ?
Kubuś - wirtualny Internetowy Miś, wysłannik obcej cywilizacji, którego zadaniem było przekazanie ludziom tajemnicy implikacji.
Podpis jest pracą zespołową, Kubuś nigdy by się nie urodził bez przyjaciół którzy pomogli mu w jego ziemskim zadaniu, rzeczywiści autorzy wymienieni są wyżej.
Spis treści:
1.0 Notacja
1.1 Aktualny stan nauki w zakresie implikacji
1.2 Wojna paradygmatów
2.0 Definicje i prawa algebry Kubusia w pigułce
3.0 Fundamenty NTI
3.1 Definicja implikacji prostej =>
3.2 Definicja implikacji odwrotnej ~>
3.3 Definicja równoważności <=>
4.0 Generowanie tabel zero-jedynkowych w NTI
4.1 Przykład implikacji prostej =>
4.2 Przykład implikacji odwrotnej ~>
4.3 Przykład równoważności <=>
4.4 Przykład obietnicy =>
5.0 Definicje warunków wystarczających i koniecznych w NTI
5.1 Zasady używania terminu „implikacja”
5.2 Definicje warunków wystarczających/koniecznych
5.3 Definicje operatorów logicznych
5.4 Kwadraty logiczne równoważności i implikacji
5.5 Równanie ogólne implikacji
6.0 Niezwykłe dowody w historii logiki
6.1 p=>q # q~>p dowód na zbiorach
6.2 p=>q # q~>p dowód poprzez sprowadzenie do sprzeczności
6.3 p=>q # q~>p dowód w bramkach logicznych
6.4 Układy zastępcze bramek logicznych
6.5 p=>q # q~>p dowód w równaniach algebry Boole’a
6.6 Punkt odniesienia w implikacji
6.7 Najważniejsze prawa w historii logiki
6.7.1 Prawo Sowy I
6.7.2 Prawo Sowy II
6.8 Prawa Sowy w praktyce
6.8.1 Świat matematyki
6.8.2 Przyroda martwa
6.8.3 Przyroda żywa
6.8.4 Przyroda martwa - człowiek
6.8.5 Obietnica
6.8.6 Groźba
6.8.7 Prawa kontrapozycji w implikacji
6.8.8 p=>q # q~>p kropka nad „i”
6.9 Salomonowy wyrok
7.0 Implikacja prosta i odwrotna - algorytmy
7.1 Implikacja prosta - algorytm działania
7.2 Implikacja odwrotna - algorytm działania
8.0 Implikacja w równaniach algebry Boole’a
8.1 Implikacja prosta w równaniach
8.2 Implikacja odwrotna w równaniach
9.0 Nowa teoria implikacji w bramkach logicznych
9.1 Prawa Kubusia w bramkach logicznych
9.2 Implikacja prosta w bramkach logicznych
9.3 Implikacja odwrotna w bramkach logicznych
10.0 Nowa teoria implikacji w przedszkolu
10.1 Kubuś na tropie implikacji odwrotnej
10.2 Operatorowa definicja implikacji odwrotnej
10.3 Zero-jedynkowa definicja implikacji odwrotnej
10.4 Gwarancja matematyczna w implikacji odwrotnej
10.5 Kubuś na tropie implikacji prostej
10.6 Operatorowa definicja implikacji prostej
10.7 Zero-jedynkowa definicja implikacji prostej
10.8 Gwarancja w implikacji prostej
10.9 O niezbędności operatorów implikacji
11.0 Obietnice i groźby
11.1 Obietnica
11.2 Rodzaje obietnic
11.3 Groźba
11.4 Złożone formy gróźb i obietnic
11.5 Wolna wola
12.0 Obietnice i groźby w równaniach matematycznych
12.1 Obietnica w równaniach matematycznych
12.2 Groźba w równaniach matematycznych
Wstęp:
Człowiek poszukuje matematycznej wersji implikacji którą posługuje się w naturalnym języku mówionym od 2500 lat, jak do tej pory bezskutecznie (Emde).
To już historia bo:
Nowa Teoria Implikacji = naturalna logika człowieka, czyli znana jest już matematyczna wersja implikacji której człowiek używa w języku mówionym.
Algebra Boole’a to fizyka a nie matematyka, w świecie techniki to fundament działania wszelkich komputerów i urządzeń, w świecie żywym to fundament działania wszelkich istot żywych, to także fundament naturalnego języka mówionego który też jest obiektem fizycznym.
Warunkiem koniecznym dla zrozumienia Nowej Teorii Implikacji jest odłożenie na półkę całej dzisiejszej wiedzy w zakresie implikacji i przyjęcie nowych definicji implikacji tu podanych, oczywiście chodzi tu o nową interpretację tabel zero-jedynkowych. Tabele zero-jedynkowe implikacji prostej => i odwrotnej ~> w Nowej Teorii Implikacji i Klasycznym Rachunku Zdań są identyczne. Prawa Kubusia też są znane w obu tych systemach i zero-jedynkowo są identyczne. KRZ boi się praw Kubusia jak diabeł święconej wody, bo mówią one o prawie zamiany operatora implikacji prostej => na implikację odwrotną ~>. Uznanie implikacji odwrotnej ~> za legalną i na równych prawach z implikacją prostą wymuszone przez prawa Kubusia to koniec współczesnego świata logiki w temacie implikacji. Wszystko jest nie tak, wszystko trzeba wywrócić do góry nogami aby świat był normalny. W podręczniku obalono co najmniej 10 implikacyjnych mitów rodem z KRZ oznaczonych prawda 1 do prawda 10.
Przy prawidłowo rozumianej algebrze Boole'a logika jest fantastycznie prosta, w 100% zgodna z logiką człowieka.
Poprawna matematycznie algebra Boole'a to naturalna logika 5-cio letniego dziecka, absolutnie nic więcej !
1.0 Notacja
1 = prawda
0 = fałsz
# - różne
* - symbol iloczynu logicznego (AND), w mowie potocznej spójnik 'i'
+ - symbol sumy logicznej (OR), w mowie potocznej spójnik "lub"
~ - przeczenie, negacja (NOT), w mowie potocznej "NIE"
~(...) - w mowie potocznej "nie może się zdarzyć że ...", "nie prawdą jest że ..."
<=> - symbol równoważności
Twarda prawda/fałsz - zachodzi zawsze, bez żadnych wyjątków (warunek wystarczający =>)
Miękka prawda/fałsz - może zajść, ale nie musi (warunek konieczny ~>)
Kolejność wykonywania działań: nawiasy, AND(*), OR(+), =>, ~>
1.1 Aktualny stan nauki w zakresie implikacji
Aktualne, znane człowiekowi definicje implikacji mają zero wspólnego z implikacją występującą w naturalnym języku mówionym człowieka.
A.
Implikacja materialna:
[link widoczny dla zalogowanych]
Implikacja (inaczej wynikanie) to spójnik łączący dwa zdania P (poprzednik implikacji) i Q (następnik implikacji) mówiący, że "z P wynika Q". Jest to najbardziej kontrowersyjny ze spójników logicznych. W logice klasycznej przyjmuje się implikację materialną: „z P wynika Q” jest prawdziwe, jeśli Q jest prawdziwe lub P jest fałszywe. Jest to interpretacja wygodna ale całkowicie niezgodna z intuicyjnym rozumieniem "wynikania". W szczególności całkowicie nie do zaakceptowania dla intuicjonistów jest twierdzenie logiki klasycznej, które orzeka, że "z fałszu wynika cokolwiek".
B.
Implikacja ścisła:
[link widoczny dla zalogowanych]
Intencją Lewisa było stworzenie takiej logiki, która lepiej niż implikacja materialna w klasycznym rachunku zdań oddawałaby implikację występującą w języku naturalnym. Lewis nie uświadamiał sobie jeszcze w pełni różnicy między wynikaniem a implikacją ścisłą, współcześnie jednak logiki Lewisa interpretuje się powszechnie jako logiki zdań modalnych, na których gruncie właśnie implikację ścisłą zdefiniować można następująco …
Implikacja występująca w naturalnym języku mówionym to absolutny banał po przyjęciu prawidłowych definicji implikacji prostej => i odwrotnej ~> plus praw Kubusia
Przyjęcie nowych definicji implikacji prostej => i odwrotnej ~> plus praw Kubusia to pogrom starej logiki w zakresie implikacji (Klasycznego Rachunku Zdań). Wszystko jest nie tak, wszystko trzeba wywrócić do góry nogami, aby świat był normalny.
W szczególności, implikacyjne mity z powyższego cytatu to:
1.
Prawo kontrapozycji jest prawdziwe w równoważności i fałszywe w implikacji (Prawda 5)
2.
Nie jest prawdą jakoby operatory implikacji prostej => i odwrotnej ~> można było łatwo zastąpić operatorami AND(*) i OR(+) bowiem nie zachodzi przemienność argumentów w implikacyjnych AND(*) i OR(+), dodatkowo nie mamy wówczas dostępu do fenomenalnych praw Kubusia !
3.
W nowej teorii implikacji niemożliwe jest aby „z fałszu powstała prawda” jak również niemożliwe jest aby „z prawdy powstał fałsz”
1.2 Wojna paradygmatów
NTI - Nowa Teoria Implikacji
KRZ - Klasyczny Rachunek Zdań
Zero-jedynkowo definicje implikacji prostej => i odwrotnej ~> znane są człowiekowi od ponad 100 lat. Dawno, dawno temu, jakiś matematyk doszedł do błędnego wniosku, że w logice implikacja odwrotna ~> jest zbędna. Powstał z tego paradygmat naukowy utrwalany i rozwijany przez kolejne pokolenia matematyków.
Stary paradygmat - współczesna nauka
A.
Prawa Kubusia, poprawne w NTI i KRZ (Sic !), są w logice zbędne
B.
Równanie ogólne implikacji poprawne w NTI i KRZ (Sic !) jest w logice zbędne
C.
Definicja implikacji odwrotnej ~> zero-jedynkowo identyczna w NTI i KRZ (Sic !) też jest w logice zbędna
Paradygmat Kubusia - nowa era w logice
Paradygmat Kubusia to totalne zaprzeczenie starego paradygmatu. Wszystkie 16 operatorów logicznych (pkt.1.1) jest w logice absolutnie niezbędne, w tym kwestionowany przez stary paradygmat operator implikacji odwrotnej ~> bo wszystkimi 16-toma operatorami posługuje się biegle każdy człowiek, od 5-cio latka po profesora czego dowód w NTI. Prawa Kubusia i równanie ogólne implikacji to dwie świętości algebry Boole’a które nigdy nie mogą być gwałcone i które do obsługi naturalnej logiki człowieka są niezbędne. Prawa te działają fenomenalnie w całym naszym Wszechświecie, martwym i żywym, a także w matematyce.
Wikipedia
[link widoczny dla zalogowanych]
Paradygmat a rewolucja naukowa
W czasach nauki instytucjonalnej (określenie również wprowadzone przez Kuhna) podstawowym zadaniem naukowców jest doprowadzenie uznanej teorii i faktów do najściślejszej zgodności. W konsekwencji naukowcy mają tendencję do ignorowania odkryć badawczych, które mogą zagrażać istniejącemu paradygmatowi i spowodować rozwój nowego, konkurencyjnego paradygmatu.
Na przykład Ptolemeusz spopularyzował pogląd, że Słońce obiega Ziemię, i to przekonanie było bronione przez stulecia nawet w obliczu obalających go dowodów. Jak zaobserwował Kuhn, w trakcie rozwoju nauki "nowości wprowadzane są z trudem i z towarzyszącym mu, zgodnym z oczekiwaniami, jawnym oporem". I tylko młodzi uczeni, nie tak głęboko indoktrynowani przez uznane teorie - jak Newton, Lavoisier lub Einstein - mogą dokonać odrzucenia starego paradygmatu.
Takie rewolucje naukowe następują tylko po długich okresach nauki instytucjonalnej, tradycyjnie ograniczonej ramami, w których musiała się ona (nauka) znajdować i zajmować się badaniami, zanim mogła te ramy zniszczyć". Zresztą kryzys zawsze niejawnie tai się w badaniach, ponieważ każdy problem, który nauka instytucjonalna postrzega jako łamigłówkę, może być ujrzany z innej perspektywy, jako sprzeczność (wyłom), a zatem źródło kryzysu – jest to "istotne obciążenie" badań naukowych.
Kryzys w nauce
Kryzysy są wyzwalane, gdy uczeni uznają odkryte sprzeczności za anomalię w dopasowaniu istniejącej teorii z naturą. Wszystkie kryzysy są rozwiązywane na trzy sposoby:
1
Nauka instytucjonalna może udowodnić zdolność do objęcia kryzysowego problemu, i w tym przypadku wszystko wraca do "normalności".
2.
Alternatywnie, problem pozostaje, jest zaetykietowany, natomiast postrzega się go jako wynik niemożności użycia niezbędnych przyrządów do rozwiązania go, więc uczeni pozostawiają go przyszłym pokoleniom z ich bardziej rozwiniętymi (zaawansowanymi) przyborami.
3.
W niewielu przypadkach pojawia się nowy kandydat na paradygmat, i wynika bitwa o jego uznanie będąca w istocie wojną paradygmatów.
Kuhn argumentuje, że rewolucje naukowe są nieskumulowanym epizodem rozwojowym, podczas którego starszy paradygmat jest zamieniany w całości lub po części przez niezgodny z nim paradygmat nowszy. Ale nowy paradygmat nie może być zbudowany na poprzedzającym go, a raczej może go tylko zamienić, gdyż "instytucjonalna tradycja naukowa wyłaniająca się z rewolucji naukowej jest nie tylko niezgodna, ale też nieuzgadnialna z tą, która pojawiła się przed nią". Rewolucja kończy się całkowitym zwycięstwem jednego z dwóch przeciwnych obozów.
Nowa Teoria Implikacji to właśnie punkt 3, czyli totalna negacja starego paradygmatu. Tu nie ma miejsca na kompromis, bo takowy jest po prostu niemożliwy. W starym paradygmacie nie ma miejsca na fenomenalnie działające prawa Kubusia, bo te wymagają uznania równych praw implikacji prostej => i odwrotnej ~> a to rozwala totalnie cała dzisiejszą logikę w zakresie implikacji, bo wszystkie znana człowiekowi logiki błędnie uznają definicję implikacji odwrotnej ~> za zbędną.
Powyższy cytat doskonale pokazuje na jakie opory napotka NTI w drodze do podręcznika matematyki I klasy LO. Możemy mieć tylko nadzieję, że kiedyś to nastąpi.
W dniu dzisiejszym paradygmat naukowy:
„Implikacja odwrotna ~> jest w logice zbędna a tym samym prawa Kubusia są w logice zbędne (sic! - poprawne także w KRZ !)”
osiągnął niebotyczne rozmiary tzn. powstało potwornie dużo teorii „matematycznych” w sposób oczywisty gwałcących świętość algebry Boole’a, prawa Kubusia i inne prawa tu odkryte np. logika dodatnia i ujemna w algebrze Boole’a czy równanie ogólne implikacji prawdziwe zarówno w NTI jak i KRZ.
Najśmieszniejszy w tym wszystkim jest fakt, że o ile w operatorach AND i OR matematycznie można się obejść bez jednego z tych operatorów na podstawie praw de’Morgana to w implikacji operator implikacji prostej => nie może istnieć bez operatora implikacji odwrotnej ~> (albo odwrotnie) na podstawie prawa Kubusia, które zachodzi w obrębie jednej i tej samej definicji zero-jedynkowej. Tak więc miejsce jakiejkolwiek logiki w obszarze implikacji wykorzystującej wyłącznie jeden operator implikacji prostej => jest w koszu na śmieci.
2.0 Definicje i prawa algebry Kubusia w pigułce
… czyli wszystko co najważniejsze w Nowej Teorii Implikacji w operatorach AND(*), OR(+), implikacji prostej => i implikacji odwrotnej ~>.
Definicja iloczynu logicznego:
Iloczyn logiczny jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Y=A1*A2* … *An =1 <=> A1=1, A2=1 … An=1
Definicja równoważna:
Iloczyn logiczny jest równy zeru jeśli którakolwiek zmienna jest równa zeru.
Y=1*1*1*0*1 =0
Definicja sumy logicznej:
Suma logiczna n-zmiennych binarnych jest równa zeru wtedy i tylko wtedy gdy wszystkie składniki sumy są równe zeru
Y = A1+A2+… An =0 <=> A1=0, A2=0 …An=0
Definicja równoważna:
Suma logiczna n-zmiennych binarnych jest równa jeden gdy którakolwiek ze zmiennych jest równa jeden.
Y=1+1+1+0+1 =1
Zmienna binarna:
Zmienna binarna to zmienna, mogąca przyjmować w osi czasu wyłącznie dwie wartości logiczne 0 albo 1.
Funkcja logiczna:
Funkcja logiczna Y to funkcja n-zmiennych binarnych połączonych operatorami AND(*) lub OR(+).
Przykład:
Y = A+(B*C) ….
Definicja logiki dodatniej i ujemnej dla operatorów AND i OR:
Logika dodatnia (Y) to odpowiedź na pytanie kiedy dotrzymam słowa (wystąpi prawda), zaś logika ujemna (~Y) to odpowiedź na pytanie kiedy skłamię (wystąpi fałsz).
gdzie:
Y - funkcja logiczna w logice dodatniej (brak przeczenia)
~Y - funkcja logiczna w logice ujemnej (jest przeczenie)
Związek logiki dodatniej z logiką ujemną opisuje równanie:
Y = ~(~Y) - prawo podwójnego przeczenia
Prawo przedszkolaka:
W dowolnej funkcji logicznej Y algebry Boole’a z operatorami AND i OR przejście do logiki przeciwnej uzyskujemy poprzez negację zmiennych i wymianę operatorów na przeciwne.
Przykładowa funkcja logiczna:
A.
Y=A+(B*~C)
Przejście do logiki przeciwnej:
B.
~Y=~A*(~B+C)
Oczywiście:
C.
Y=~(~Y)
Podstawiając A i B do C mamy prawo de’Morgana:
A+(B*~C) = ~A*(~B+C)
Prawa de’Morgana:
p*q = ~(~p+~q) - prawo zamiany operatora AND(*) na OR(+)
p+q = ~(~p*~q) - prawo zamiany operatora OR(+) na AND(*)
Zasada czytania funkcji logicznej:
Wartość funkcji logicznej z operatorami AND i OR to wartość logiczna zdania.
Y =1 - prawda, dotrzymam słowa (Y - logika dodatnia)
~Y=1 - fałsz, skłamię (~Y - logika ujemna)
gdzie:
Y - zarezerwowany symbol funkcji logicznej
Znaczenie zmiennych w logice dodatniej:
Y=A*B - funkcja logiczna
gdzie:
A, B - zmienne binarne, mogące przyjmować w osi czasu wyłącznie 0 albo 1.
Zasada czytania:
Y=1 <=> A=1 i B=1
inaczej Y=0.
czyli:
Wystąpi prawda (Y=1) jeśli zajdzie A=1 i B=1
Logika dodatnia:
Y=1, ~Y=0
A=1, ~A=0
B=1, ~B=0
Znaczenie zmiennych w logice ujemnej:
Kiedy powyższa funkcja będzie fałszem (kłamstwem) ?
Przejście do logiki ujemnej metodą przedszkolaka poprzez negację zmiennych i wymianę operatorów na przeciwne.
~Y=~A+~B
Zasada czytania jest tu identyczna:
~Y=1 <=> ~A=1 lub ~B=1
inaczej ~Y=0
Czyli:
Wystąpi fałsz (~Y=1) jeśli zajdzie ~A=1 lub ~B=1
Logika ujemna:
~Y=1, Y=0
~A=1, A=0
~B=1, B=0
Zauważmy, że znaczenie zmiennych w logice dodatniej jest fundamentalnie inne niż w logice ujemnej. W szczególności w operatorach AND i OR zdanie prawdziwe w logice dodatniej (Y=1) nie jest równoważne zdaniu prawdziwemu w logice ujemnej (~Y=1), czyli mamy sytuację: oba zdania prawdziwe, ale nie równoważne !
Przykład:
Jutro pójdę do kina i do teatru
Y=K*T
Matematycznie oznacza to:
A.
Dotrzymam słowa (Y), jeśli jutro pójdę do kina (K) i do teatru (T)
Y=K*T
czyli:
Y=1 <=> K=1 i T=1
Stan faktyczny pojutrze:
Y=1 - dotrzymałem słowa
K=1 - byłem w kinie
i
T=1 - byłem w teatrze
Tata, a kiedy skłamiesz ?
Przejście do logiki przeciwnej metodą przedszkolaka poprzez negacje zmiennych i wymianę operatorów.
~Y=~K+~T
B.
Skłamię (~Y), jeśli jutro nie pójdę do kina (~K) lub nie pójdę do teatru (~T)
~Y=~K+~T
czyli:
~Y=1 <=> ~K=1 lub ~T=1
Stan faktyczny pojutrze:
~Y=1 - skłamałem
~K=1 - nie byłem w kinie
lub
~T=1 - nie byłem w teatrze
Zdanie B to dla wszystkich oczywistość, wypowiadana najczęściej jako odpowiedź na pytanie dziecka (Tata, kiedy skłamiesz ?), które dopiero uczy się języka. W języku mówionym „dotrzymam słowa (Y)” jest domyślne i nie musi być wypowiadane, natomiast „skłamię (~Y)” nie jest domyślne i zawsze jest wypowiadane.
Związek logiki dodatniej i ujemnej:
C.
Y=~(~Y) - prawo podwójnego przeczenia
Podstawiając A i B do C mamy prawo de’Morgana
Y = K*T = ~(~K+~T)
Nie może się zdarzyć ~(…), że jutro nie pójdę do kina (~K) lub nie pójdę do teatru (~T)
Y = ~(~K+~T)
czyli:
Y=1 <=> ~(~K=1 lub ~T=1)
Dotrzymam słowa (Y=1), jeśli nie zdarzy się ~(…) że jutro nie pójdę do kina (~K=1) lub nie pójdę do teatru (~T=1)
Prawo Prosiaczka:
Równania algebry Boole’a dla dowolnej tabeli zero-jedynkowej n-elementowej tworzymy na podstawie linii z tą samą wartością logiczną w wyniku. Wszelkie nie opisane równaniami linie przyjmą wartości przeciwne do linii opisanych.
Przykład:
Definicja implikacji prostej =>.
Kod: |
p q Y=p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Najprostsze równanie uzyskamy z linii drugiej bowiem w wyniku mamy tu samotne zero.
Z tabeli widzimy że:
A.
Y=0 <=> p=1 i q=0
Przejście z takiego zapisu do równań algebry Boole’a jest banalne. Należy skorzystać z definicji iloczynu logicznego sprowadzając wszystkie zmienne do jedynki albo z definicji sumy logicznej sprowadzając wszystkie zmienne do zera.
Sposób I
Sprowadzamy wszystkie zmienne do jedynki:
B.
Y=0 czyli ~Y=1
p=1
q=0 czyli ~q=1
Definicja iloczynu logicznego:
Iloczyn logiczny jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Korzystając z A i B na podstawie tej definicji mamy:
~Y = p*~q
Przechodzimy do logiki przeciwnej metodą przedszkolaka:
Y=~p+q
czyli:
p=>q = ~p+q
Sposób II
Sprowadzamy wszystkie zmienne do zera i stosujemy definicję sumy logicznej.
Definicja sumy logicznej:
Suma logiczna jest równa zeru wtedy i tylko wtedy gdy wszystkie składniki sumy są równe zeru
Na podstawie równania A mamy:
C.
Y=0
p=1 czyli ~p=0
q=0
Korzystając z A i C na podstawie definicji sumy logicznej mamy:
Y=~p+q
czyli:
p=>q = ~p+q
Powyżej ułożyliśmy równanie wyłącznie dla drugiej linii tabeli gdzie w wyniku było zero, wszelkie pozostałe linie, zgodnie z prawem Prosiaczka muszą być jedynkami niezależnie od chciejstwa człowieka … bo to jest matematyka przecież.
Fundament algebry Kubusia w zakresie implikacji
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” => zajść q
p musi być warunkiem wystarczającym dla q
=> - operator implikacji prostej, spójnik „musi” ze spełnionym warunkiem wystarczającym
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Spójniki zdaniowe
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Prawa Kubusia:
p=>q = ~p~>~q - prawo zamiany operatora implikacji prostej => na odwrotną ~>
p~>q = ~p=>~q - prawo zamiany operatora implikacji odwrotnej ~> na prostą =>
Logika dodatnia i ujemna dla operatorów implikacji prostej => i odwrotnej ~>:
Implikacja wypowiedziana jest w logice dodatniej jeśli po stronie q nie występuje negacja, inaczej mamy do czynienia z logiką ujemną (patrz prawa Kubusia).
Z praw Kubusia wynika, że implikacja prosta => w logice dodatniej jest równoważna implikacji odwrotnej ~> w logice ujemnej i odwrotnie, czyli implikacja odwrotna ~> w logice dodatniej jest równoważna implikacji prostej => w logice ujemnej.
Prawo Sowy I
Dowolna implikacja prawdziwa może być tylko i wyłącznie implikacją prostą p=>q prawdziwą , albo implikacją odwrotną p~>q prawdziwą, nie ma więcej możliwości matematycznych.
Prawo Sowy II
Implikacja prosta prawdziwa p=>q po zamianie argumentów przechodzi w implikację odwrotną prawdziwą p~>q, albo odwrotnie.
Oczywiście na mocy definicji zachodzi:
p=>q # p~>q
Prawa kontrapozycji w implikacji
p=>q # ~q=>~p - zapisane dla punktu odniesienia p=>q
p~>q # ~q~>~p - zapisane dla punktu odniesienia p~>q
W prawach kontrapozycji w implikacji negujemy argumenty i zamieniamy je miejscami bez zmiany operatora. W prawie kontrapozycji w implikacji jeśli prawdziwa jest którakolwiek strona nierówności to musi być prawdziwa druga strona nierówności. Oczywiście na mocy praw Kubusia i prawa Sowy II implikacje te nie są równoważne mimo że prawdziwe, to dwa izolowane układy implikacyjne pomiędzy którymi nie zachodzą żadne zależności matematyczne.
3.0 Fundamenty NTI
Cała NTI zbudowana jest na dziewiczych, zero-jedynkowych operatorach logicznych znanych człowiekowi od ponad 100 lat. Nie ma tu żadnych innych definicji ani aksjomatów. Wszystkich możliwych operatorów dwuargumentowych jest 16 z czego człowiek zna poprawną interpretację zaledwie sześciu. W NTI wszystkie 16 operatorów zostało poprawnie rozszyfrowane w odniesieniu do naturalnej logiki człowieka. Każdy człowiek od 5-cio latka po starca posługuje się biegle wszystkimi operatorami logicznymi bo to jest po prostu matematyczny opis naturalnej logiki człowieka.
Podstawowe definicje w NTI, wynikają bezpośrednio z dziewiczych definicji zero-jedynkowych odpowiednich operatorów, nie są to zatem żadne aksjomaty czy założenia.
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” => zajść q
p musi być warunkiem wystarczającym dla q
=> - operator implikacji prostej, spójnik „musi” ze spełnionym warunkiem wystarczającym
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Spójniki zdaniowe
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Prawa Kubusia:
p=>q = ~p~>~q - prawo zamiany operatora implikacji prostej => na odwrotną ~>
p~>q = ~p=>~q - prawo zamiany operatora implikacji odwrotnej ~> na prostą =>
Prawe strony definicji implikacji definiują odpowiednią tabelę zero jedynkową np.
p=>q = ~p+q
definiuje taką tabelę:
Kod: |
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
W zasadzie to wyłącznie po to zapis ~p+q jest tu potrzebny. Naturalna implikacja człowieka to w praktyce wyłącznie definicje zero-jedynkowe jak wyżej plus prawa Kubusia. Implikacja wyrażona w AND i OR jest „psu na budę potrzebna” gdyż człowiek praktycznie nigdy z tego nie korzysta.
W NTI poza definicjami wyżej, wynikającymi bezpośrednio z odpowiednich definicji zero-jedynkowych nie ma żadnych innych definicji. Fundamentem NTI są zatem tylko i wyłącznie dziewicze definicje algebry Boole’a w 100% zgodne z KRZ … tyle że KRZ nie ma pojęcia o poprawnej interpretacji tych zer i jedynek jak niżej.
Pełna lista dwuargumentowych operatorów logicznych.
Kod: |
p q OR NOR AND NAND <=> XOR => N(=>) ~> N(~>) FILL NOP P NP Q NQ
0 0 0 1 0 1 1 0 1 0 1 0 1 0 0 1 0 1
0 1 1 0 0 1 0 1 1 0 0 1 1 0 0 1 1 0
1 0 1 0 0 1 0 1 0 1 1 0 1 0 1 0 0 1
1 1 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0
|
Kod: |
Logika dodatnia Logika ujemna
OR NOR
AND NAND
<=> XOR
=> N(=>)
~> N(~>)
FILL NOP
P NP
Q NQ
|
Wszystkich możliwych operatorów logicznych jest 16 z czego człowiek zna poprawne znaczenie zaledwie sześciu: AND, NAND, OR, NOR, <=>, XOR. Za operatory dodatnie przyjęto te, które człowiek używa w naturalnym języku mówionym.
Operator ujemny to zanegowany operator dodatni, co doskonale widać w powyższej tabeli.
Operator dodatni to zanegowany operator ujemny, co również widać wyżej.
Kod: |
Definicje operatorów ujemnych:
pNORq = ~(p+q)
pNANDq = ~(p*q)
pXORq = ~(p<=>q)
pN(=>)q = ~(p=>q)
pN(~>)q = ~(p~>q)
pNOPq = ~(pFILLq)
pNPq = ~(pPq)
pNQq = ~(pQq)
|
W języku mówionym operatory ujemne nie są używane, ponieważ łatwo je zastąpić operatorami dodatnimi plus negacją co widać w powyższej tabeli.
3.1 Definicja implikacji prostej =>
Definicja:
Zdanie „Jeśli…to…” jest implikacją prostą wtedy i tylko wtedy gdy spełnia pełną, operatorową definicję implikacji prostej.
Powyższa definicja wynika bezpośrednio z tabeli zero-jedynkowej. Implikacja to matematyczny opis przyszłości. Definicja zero-jedynkowa implikacji to rozpiska wszystkich możliwych przypadków jakie w przyszłości mogą zaistnieć.
Definicja zero-jedynkowa implikacji prostej:
Kod: |
Tabela A
p q Y=p=>p
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
Definicja w równaniu algebry Boole’a.
p=>q = ~p+q = ~(p*~q)
Jeśli zajdzie p to „musi” => zajść q
p musi być warunkiem wystarczającym dla q
=> - operator implikacji prostej, spójnik „musi” ze spełnionym warunkiem wystarczającym
Definicja implikacji wyrażona w operatorach AND i OR w praktyce języka mówionego praktycznie nie używana . Wszyscy ludzie od 5-cio latka po profesora korzystają wyłącznie z definicji operatorowych.
Definicja symboliczna implikacji prostej w logice dodatniej:
p=1, ~p=0
q=1, ~q=0
stąd:
Kod: |
Tabela B
p q Y=p=>q
p* q =1
p* ~q =0
~p* ~q =1
~p* q =1
|
Definicja iloczynu logicznego:
Iloczyn logiczny n zmiennych binarnych równy jest jeden wtedy i tylko wtedy gdy każda zmienna równa jest jeden.
Powyższa tabela to zera i jedynki z definicji zero-jedynkowej zapisane w postaci symbolicznej, zmienne binarne. Zauważmy, że wszystkie zmienne sprowadzone zostały od jedynki (prawdy), dlatego logika dodatnia wymusza operator AND(*) w poziomie i OR(+) w pionie.
Definicja operatorowa i zero-jedynkowa implikacji prostej =>:
Kod: |
Tabela C
p q Y=p=>q
p => q =1
1 1 =1
stąd:
p =>~q =0
1 0 =0
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p=>q = ~p~>~q
~p ~>~q =1
0 0 =1
LUB
~p~~> q =1
0 1 =1
|
Doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
p=1, ~p=0
q=1, ~q=0
Spójniki zdaniowe
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Prawda 1
Jak widać wyżej prawo Kubusia zachodzi w jednej i tej samej tabeli zero-jedynkowej, zatem definicja implikacji prostej => nie może istnieć bez operatora implikacji odwrotnej ~> i odwrotnie.
Nie ma implikacji prostej => bez implikacji odwrotnej ~> !
Wyprowadzenie definicji implikacji prostej w NTI:
1.
Zauważmy, że warunek wystarczający wynika z pierwszych dwóch linii tabeli B lub C. Druga linia jest twardym fałszem, zatem w pierwszej linii musi być twarda prawda bo po stronie p nie ma więcej możliwości matematycznych.
p=>q =1 - twarda prawda zachodząca zawsze
p*q =1
1 1 =1
Jeśli zajdzie p to musi zajść q czyli p musi być wystarczające dla q.
stąd druga linia:
p=>~q =0 - twardy fałsz
p*~q =0
1 0 =0
Stąd:
Definicja implikacji prostej:
p=>q
Jeśli zajdzie p to musi zajść q
p musi być warunkiem wystarczającym dla q
2.
Kolejne dwie linie to warunek konieczny ~>, widać że jeśli zajdzie ~p to może zajść ~q lub q czyli:
~p~>~q =1
~p*~q =1
0 0 =1
LUB
~p~~>q =1
~p*q =1
0 1 =1
Mamy tu typowe „rzucanie monetą”. Dla wylosowanego elementu zgodnego z ~p jedna z dwóch ostatnich linii będzie prawdziwa, druga fałszywa. Dla nieskończonej ilości losowań na pewno zajdzie przynajmniej jedna prawda w obu ostatnich liniach, stąd dwie jedynki w definicji.
Uwaga:
Po stronie ~p może wystąpić także warunek wystarczający (~p=>~q=1), wtedy to będzie równoważność a nie implikacja prosta na mocy definicji:
p<=>q = (p=>q)*(~p=>~q)
Zauważmy, że w definicji symbolicznej i operatorowej wszystkie zmienne zostały sprowadzone do prawdy (do jedynek). Zera i jedynki w definicji operatorowej nas kompletnie nie interesują
Pierwsza linia:
p=>q
Jeśli zajdzie p to na pewno zajdzie q
p=>q =1
1 1 =1
czyli:
Jeśli zajdzie p (prawda) to na pewno zajdzie q (prawda)
Druga linia:
p=>~q =0
Jeśli zajdzie p (prawda) to na pewno zajdzie ~q (prawda)
p=>~q =0
1 0 =0
Oczywisty fałsz na mocy definicji implikacji prostej.
Trzecia linia:
~p~>~q =1
Jeśli zajdzie ~p (prawda) to może zajść ~q (prawda)
~p~>~q=1
0 0 =1
LUB
Czwarta linia:
~p~~>q =1
Jeśli zajdzie ~p (prawda) to może zajść q (prawda)
~p~~>q =1
0 1 =1
Jak widać w całej operatorowej definicji implikacji prostej => mamy sytuację iż jeśli zajdzie poprzednik (prawda) to zajdzie(=>)/może zajść (~>) następnik (prawda).
Prawda 2
W definicji zero-jedynkowej implikacji prostej sekwencja 0 1 =1 nie oznacza że z fałszu może powstać prawda (to nonsens), ale że z prawdy ~p (wylosowany element zgodny z ~p) może powstać p (prawda), gdy wylosowany element ma cechę zgodną z q.
Przykład:
Jeśli zwierze nie jest psem to może mieć cztery łapy
~P~~>4L =1 bo słoń
0 1 =1
Wylosowaliśmy zwierzaka ~P (prawda=słoń) który ma cztery łapy (4L).
Przykład 3.1.1
Jeśli zwierzę jest psem to ma cztery łapy
Analiza matematyczna:
A.
Jeśli zwierzę jest psem to na pewno => ma cztery łapy
P=>4L=1 - gwarancja matematyczna
1 1 =1
Bycie psem jest warunkiem wystarczającym aby mieć cztery łapy, zatem implikacja prosta prawdziwa
stąd:
B.
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L =0
1 0 =0
… a jeśli zwierzę nie jest psem ?
Prawo Kubusia:
P=>4L = ~P~>~4L
C.
Jeśli zwierzę nie jest psem to może ~> nie mieć czterech łap
~P~>~4L =1 bo kura
0 0 =1
Nie bycie psem jest warunkiem koniecznym aby nie mieć czterech łap, zatem implikacja odwrotna prawdziwa
LUB
D.
Jeśli zwierzę nie jest psem to może ~~> mieć cztery łapy
~P~~>4L =1 bo słoń
0 1 =1
Doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
P=1, ~P=0
4L=1, ~4L=0
Zdanie D jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi.
Dowód nie wprost.
Załóżmy, że zdanie D jest implikacja odwrotną i zastosujmy prawo Kubusia:
D: ~P~>4L = B: P=>~4L =0
Zdanie B jest oczywistym fałszem zatem zdanie D jest implikacją odwrotną fałszywą.
Prawdziwość zdania D można opisać wzorem:
(~P~>4L) + (~P~~>4L) = 0 +1 =1
Implikacja odwrotna ~> jest tu fałszywa, ale zdanie jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy jedna prawda.
Wniosek:
Zamiast badać czy między p~>q zachodzi warunek konieczny możemy skorzystać z prawa Kubusia i badać czy między ~p=>~q zachodzi warunek wystarczający, co z reguły jest prostsze.
Implikacja to matematyczny opis przyszłości. Definicja implikacji to matematyczny zapis wszystkich możliwych przypadków jakie w przyszłości mogą zaistnieć (tu A,B,C,D). Istotą implikacji jest gwarancja matematyczna (zdanie A), wszystko inne jest bez znaczenia. Po nieskończonej ilości losowań w pudełku A będziemy mieć wszystkie ziemskie psy (twarda prawda = gwarancja matematyczna), pudełko B pozostanie puste (twardy fałsz - wynikły z powyższej twardej prawdy).
Dla konkretnego losowania w którym wylosowane zwierzę nie jest psem (~P) może zajść prawda miękka C albo D. Jeśli prawdą będzie C to automatycznie fałszem będzie D i odwrotnie, tak wiec w zdaniach C i D mamy „rzucanie monetą” bo nigdy nie wiadomo jakie zwierzę spełniające warunek „nie pies (~P)” zostanie wylosowane.
Oczywiście po nieskończonej ilości losowań puste będzie wyłącznie pudełko B … tyle tylko że nie ono jest w implikacji ważne. W implikacji istotna jest gwarancja matematyczna czyli pudełko A, którego nie należy mieszać z matematycznie bezwartościowymi pudełkami C i D.
Prawda 3
Stąd definicja implikacji materialnej definiowana jako:
„Zdanie B jest fałszywe, zaś A,C,D są prawdziwe”
jest bez sensu bo nie wolno zrównywać twardej prawdy A (zachodzi zawsze) z bezwartościowymi prawdami miękkimi C i D (mogą zajść ale nie muszą = rzucanie monetą) !
W powyższej analizie zdania A i C są tożsame na mocy prawa Kubusia:
P=>4L = ~P~>~4L
Przeanalizowaliśmy wyżej lewą stronę tożsamości poprzez operator implikacji prostej =>. Na mocy prawa Kubusia musimy uzyskać dokładnie to samo analizując prawą stronę tożsamości poprzez definicję implikacji odwrotnej ~>. Sprawdźmy czy tak jest w istocie.
Przykład 3.1.2
Jeśli zwierzę nie jest psem to może nie mieć czterech łap
Analiza matematyczna:
C.
Jeśli zwierzę nie jest psem to może ~> nie mieć czterech łap
~P~>~4L =1 bo kura
1 1 =1
Nie bycie psem jest warunkiem koniecznym aby nie mieć czterech łap, zatem implikacja odwrotna prawdziwa
LUB
D.
Jeśli zwierzę nie jest psem to może ~~> mieć cztery łapy
~P~~>4L =1 bo słoń
1 0 =1
… a jeśli zwierzę jest psem ?
Prawo Kubusia:
~P~>~4L = P=>4L
stąd:
A.
Jeśli zwierzę jest psem to na pewno => ma cztery łapy
P=>4L=1 - gwarancja matematyczna
0 0 =1
Bycie psem jest warunkiem wystarczającym aby mieć cztery łapy, zatem implikacja prosta prawdziwa
stąd:
B.
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L =0
0 1 =0
Doskonale widać tabelę zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
~P=1, P=0
~4L=1, 4L=0
Zauważmy, że zdania A, B, C i D są identyczne w obu powyższych przykładach z dokładnością do każdej literki i każdego przecinka co jest dowodem poprawności praw Kubusia.
3.2 Definicja implikacji odwrotnej ~>
Definicja:
Zdanie „Jeśli…to…” jest implikacją odwrotną wtedy i tylko wtedy gdy spełnia pełną, operatorową definicję implikacji odwrotnej.
Definicja zero-jedynkowa implikacji odwrotnej ~>:
Kod: |
Tabela A
p q p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Definicja w równaniu algebry Boole’a
p~>q = p+~q = ~(~p*q)
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Definicja symboliczna implikacji odwrotnej w logice dodatniej:
p=1, ~p=0
q=1, ~q=0
stąd:
Kod: |
Tabela B
p q p~>q
p* q =1
p*~q =1
~p*~q =1
~p* q =0
|
stąd:
Definicja operatorowa i zero-jedynkowa implikacji odwrotnej:
Kod: |
Tabela C
p q Y=p~>q
p ~> q =1
1 1 =1
LUB
p~~>~q =1
1 0 =1
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q
~p =>~q =1
0 0 =1
Stąd:
~p => q =0
0 1 =0
|
Doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
p=1, ~p=0
q=1, ~q=0
Spójniki zdaniowe
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Prawda 4
Jak widać wyżej prawo Kubusia zachodzi w jednej i tej samej tabeli zero-jedynkowej, zatem operator implikacji odwrotnej ~> nie może istnieć bez operatora implikacji prostej => i odwrotnie.
Nie ma implikacji odwrotnej ~> bez implikacji prostej => !
Wyprowadzenie definicji implikacji odwrotnej w NTI:
W tabeli B i C widać jak na dłoni, że jeśli spełniony zostanie warunek p to może zajść q lub ~q. W pierwszej części tabeli mamy więc bezwartościowe „rzucanie monetą” ale ….
Zauważmy że p musi tu być konieczne dla q !
Dlaczego ?
1.
bo wtedy i tylko wtedy w pierwszej linii będziemy mieli w wyniku jedynkę.
Przykład:
Jeśli zwierze ma skrzydła to może być psem
S~>P =0 - twardy fałsz !
1 1 =0
p q =0
Skrzydła nie są konieczne dla psa, implikacja odwrotna fałszywa
Już pierwsza linia tabeli leży w gruzach zatem zdanie jest implikacją odwrotną fałszywą. Implikacja prosta => również jest tu fałszywa bo skrzydła nie są warunkiem wystarczającym dla psa.
Przykład:
Jeśli zwierze ma cztery łapy to może być psem
4L~>P=1 bo pies
p*q =1
1 1 =1
Cztery łapy są konieczne aby być psem, implikacja odwrotna prawdziwa
LUB
Jeśli zwierzę ma cztery łapy to może nie być psem
4L~~>~P =1 bo słoń
p*~q =1
1 0 =1
Stąd:
Definicja implikacji odwrotnej:
p~>q
Jeśli zajdzie p to może zajść q
p musi być konieczne dla q
2.
Jeśli p jest konieczne dla q (co wynikło nam wyżej) to zajście ~p gwarantuje zajście ~q, czyli w sposób naturalny odkryliśmy tu prawo Kubusia:
p~>q = ~p=>~q
Prawa strona wyżej to dolna część tabeli zero-jedynkowej definicji implikacji odwrotnej;
~p=>~q =1 - twarda prawda zachodząca zawsze !
~p ~q =1
0 0 =1
stąd ostatnia linia tabeli:
~p=>q =0
~p q =0
0 1 =0
CND
Przykład 3.2.1
Jeśli zwierzę ma cztery łapy to może być psem
Analiza matematyczna:
A.
Jeśli zwierzę ma cztery łapy to może ~> być psem
4L~>P =1 bo pies
1 1 =1
Cztery łapy są konieczne aby być psem, zatem implikacja odwrotna prawdziwa
LUB
B.
Jeśli zwierzę ma cztery łapy to może nie być psem
4L~~>~P =1 bo słoń
1 0 =1
… a jeśli zwierzę nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
czyli:
C.
Jeśli zwierzę nie ma czterech łap to na pewno => nie jest psem
~4L=>~P =1 - gwarancja matematyczna
0 0 =1
Brak czterech łap jest warunkiem wystarczającym aby nie być psem, zatem implikacja prosta prawdziwa.
stąd:
D.
Jeśli zwierzę nie ma czterech łap to na pewno jest psem
~4L=>P =0 - oczywisty fałsz
0 1 =0
Doskonale widać zero-jedynkową definicję implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
4L=1, ~4L=0
P=1, ~P=0
Na mocy prawa Kubusia zdania A i C są matematycznie tożsame, zatem zdania C nie musimy analizować … ale jako ciekawscy sprawdźmy czy to prawda.
Przykład 3.2.2
Jeśli zwierzę nie ma czterech łap to nie jest psem
Analiza matematyczna:
C.
Jeśli zwierzę nie ma czterech łap to na pewno nie jest psem
~4L=>~P =1 - gwarancja matematyczna
1 1 =1
Brak czterech łap jest warunkiem wystarczającym aby nie być psem, zatem implikacja prosta prawdziwa.
stąd:
D.
Jeśli zwierzę nie ma czterech łap to na pewno jest psem
~4L=>P =0 - oczywisty fałsz
1 0 =0
… a jeśli zwierzę ma cztery łapy ?
Prawo Kubusia:
~4L=>~P = 4L~>P
czyli:
A.
Jeśli zwierzę ma cztery łapy to może ~> być psem
4L~>P =1 bo pies
0 0 =1
Cztery łapy są konieczne aby być psem, zatem implikacja odwrotna prawdziwa
LUB
B.
Jeśli zwierzę ma cztery łapy to może nie być psem
4L~~>~P =1 bo słoń
0 1 =1
Doskonale widać tabele zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
~4L=1, 4L=0
~P=1, P=0
Zauważmy, że zdania A, B, C i D są identyczne w obu powyższych przykładach z dokładnością do każdej literki i każdego przecinka co jest dowodem poprawności praw Kubusia.
3.3 Definicja równoważności <=>
Definicja:
Zdanie jest równoważnością wtedy i tylko wtedy gdy spełnia pełną, operatorową definicję równoważności <=>.
Definicja zero-jedynkowa równoważności <=>:
Kod: |
Tabela A
p q p<=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =0
|
Zacznijmy od operatorowej definicji implikacji prostej …
Operatorowej i zero-jedynkowa definicja implikacji prostej:
Kod: |
Tabela B
p q p=>q
P=> q =1
1 1 =1
p=>~q =0
1 0 =0
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q=~p~>~q
czyli:
~p~>~q =1
0 0 =1
LUB
~p~~>q =1
0 1 =1 |
W definicji operatorowej doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
p=1, ~p=0
q=1, ~q=0
Spójniki zdaniowe
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Prawo Kubusia:
p=>q = ~p~>~q
Jak widać wyżej prawo Kubusia obowiązuje w obrębie jednej i tej samej definicji zero-jedynkowej zatem implikacja prosta => nie może istnieć bez operatora implikacji odwrotnej ~> i odwrotnie.
W równoważności mamy do czynienia wyłącznie z warunkami wystarczającymi, nie ma tu śladu operatora implikacji odwrotnej ~> jak w definicji implikacji prostej wyżej.
Operatorowa i zero-jedynkowa definicja równoważności:
Kod: |
Tabela C
p q p<=>q
P=> q =1
1 1 =1
p=>~q =0
1 0 =0
… a jeśli zajdzie ~p ?
~p=>~q =1
0 0 =1
~p=> q =0
0 1 =0 |
Doskonale widać tabele zero-jedynkowa równoważności dla kodowania w logice dodatniej:
p=1, ~p=0
q=1, ~q=0
Stąd dziewicza, operatorowa definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)
Jak widać, w definicji równoważności po prawej stronie chodzi wyłącznie o warunki wystarczające => między p=>q oraz między ~p=>~q. Nie ma tu śladu implikacji odwrotnej ~> i prawa Kubusia widocznych w definicji implikacji prostej => wyżej (tabela B).
Wyrażenia p=>q i ~p=>~q nie są implikacjami bo w tabeli równoważności nie ma szans na zaistnienie prawa Kubusia co doskonale widać porównując powyższe definicje implikacji prostej (tabela B) i równoważności (tabela C).
Twierdzenie:
Jeśli cokolwiek jest równoważnością to nie może być implikacją i odwrotnie. Równoważność i implikacja to dwa rozłączne światy matematyczne miedzy którymi nie zachodzą żadne prawa matematyczne.
Dowód:
Definicje implikacji i równoważności wyżej
Twierdzenie:
Równoważność to iloczyn logiczny warunków wystarczających między p=>q oraz między ~p=>~q (nigdy implikacji) co widać w definicji równoważności wyżej.
Definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)
Z powyższego wynika, że dla operatora równoważności formy „Jeśli…to…”, czyli p=>q oraz ~p=>~q są jak najbardziej poprawne, inaczej nie mielibyśmy szansy udowodnienia równoważności na podstawie jej definicji wyżej.
4.0 Generowanie tabel zero-jedynkowych w NTI
W NTI punktem odniesienia jest zawsze zdanie wypowiedziane któremu przypisujemy kod 1 1 =1. Pozostałe zdania w tabeli odnoszą się do tego właśnie zdania bazowego 1 1 =1.
4.1 Przykład implikacji prostej =>
Zdanie wypowiedziane:
Jeśli liczba jest podzielna przez 8 to jest podzielna przez 2
P8=>P2 =1
1 1 =1
P8 wystarcza dla P2, zatem warunek wystarczający spełniony.
Uwaga:
W ogólnym przypadku przy spełnionym warunku wystarczającym p=>q zdanie może być implikacją albo równoważnością. Najprostsze i najpewniejsze rozstrzygnięcie czym jest wypowiedziane twierdzenie to jego analiza przez definicję zero-jedynkową w sposób jak niżej.
Definicja zero-jedynkowa implikacji prostej =>:
Kod: |
p q p=>q
A. 1 1 =1
B. 1 0 =0
C. 0 0 =1
D. 0 1 =1
|
W NTI wszystkie pozycje tabeli zero jedynkowej sprowadzamy do zdania wypowiedzianego czyli do 1 1 =1 kodując symbolicznie w logice dodatniej:
p=1, ~p=0
q=1, ~q=0
Kod: |
p q p=>q
A. p q =1
B. p ~q =0
C.~p ~q =1
D.~p q =1
|
Definicja iloczynu logicznego AND(*):
Iloczyn logiczny n-zmiennych binarnych równy jest jeden gdy wszystkie zmienne są równe jeden
Z kodowania w logice dodatniej wynika konieczność użycia operatora AND(*) w poziomach i OR(+) w pionie.
Przykład:
Jeśli liczba jest podzielna przez 8 to jest podzielna przez 2
P8=>P2 =1
Analiza matematyczna:
W NTI dla każdej linii zadajemy sobie fundamentalne pytanie:
A.
Czy może zaistnieć p i q ?
tak=1
nie =0
Czy może zaistnieć P8 i P2 ?
tak=1 bo 8,16…
P8*P2 =1
1 1 =1
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2 =1
B.
Czy może zaistnieć p i ~q ?
tak=1
nie=0
Czy może zaistnieć P8 i ~P2 ?
nie =0 bo nie istnieje liczba podzielna przez 8 i niepodzielna przez 2
P8*~P2 =0
1 0 =0
Jeśli liczba jest podzielna przez 8 to na pewno => nie jest podzielna przez 2
P8=>~P2=0
… a jeśli zajdzie ~p ?
Prawo Kubusia:
P8=>P2 = ~P8~>~P2
C.
Czy może zaistnieć ~p i ~q ?
tak=1
nie =0
Czy może zaistnieć ~P8 i ~P2 ?
tak=1 bo 3,5,7…
~P8*~P2 =1
0 0 =1
Jeśli liczba nie jest podzielna przez 8 to może ~> nie być podzielna przez 2
~P8~>~P2 =1
LUB
D.
Czy może zaistnieć ~p i q ?
tak=1
nie=0
Czy może zaistnieć ~P8 i P2 ?
tak=1 bo 2,4,6…
~P8*P2 =1
0 1 =1
Jeśli liczba nie jest podzielna przez 8 to może ~~> być podzielna przez 2
~P8~~>P2 =1
Jak widzimy w NTI to analiza zdania generuje wynik, czyli wartość logiczną zdania:
1 - sytuacja możliwa do zaistnienia
0 - sytuacja niemożliwa do zaistnienia
Wygenerowana tabela zero-jedynkowa implikacji prostej =>:
Kod: |
p q p=>q
1 1 =1 / P8=> P2=1
1 0 =0 / P8=>~P2=0
0 0 =1 /~P8~>~P2=1
0 1 =1 /~P8~~>P2=1
|
Zauważmy, że absolutnie genialna jest tu definicja operatorowa bo w 100% zgodna z naturalną logiką człowieka, zaprezentowana zawsze w ostatniej linii która opisuje istotę operatorów =>, <=> i ~>, czyli zachodzący warunek wystarczający => (A) i konieczny ~> (C).
4.2 Przykład implikacji odwrotnej ~>
Zdanie wypowiedziane:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8
P2 jest konieczne dla P8, mamy tu gwarancję implikacji odwrotnej bo:
Jeśli p jest konieczne dla q to zajście ~p gwarantuje zajście ~q.
W sposób naturalny odkryliśmy tu prawo Kubusia:
p~>q = ~p=>~q
Definicja zero-jedynkowa implikacji odwrotnej ~>:
Kod: |
p q p~>q
A. 1 1 =1
B. 1 0 =1
C. 0 0 =1
D. 0 1 =0
|
W NTI wszystkie pozycje tabeli zero jedynkowej sprowadzamy do zdania wypowiedzianego czyli do 1 1 =1 kodując symbolicznie w logice dodatniej:
p=1, ~p=0
q=1, ~q=0
Kod: |
p q p~>q
A. p q =1
B. p ~q =1
C.~p ~q =1
D.~p q =0
|
Przykład:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8
Analiza matematyczna:
W NTI dla każdej linii zadajemy sobie fundamentalne pytanie:
A.
Czy może zaistnieć p i q ?
tak=1
nie =0
Czy może zaistnieć P2 i P8 ?
tak=1 bo 8,16…
P2*P8 =1
1 1 =1
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8 =1
B.
Czy może zaistnieć p i ~q ?
tak=1
nie=0
Czy może zaistnieć P2 i ~P8 ?
tak=1 bo 2,4,6 …
P2*~P8 =1
1 0 =1
Jeśli liczba jest podzielna przez 2 to może ~~> nie być podzielna przez 8
P2~~>~P8 =1
… a jeśli zajdzie ~p ?
Prawo Kubusia:
P2~>P8 = ~P2=>~P8
C.
Czy może zaistnieć ~p i ~q ?
tak=1
nie =0
Czy może zaistnieć ~P2 i ~P8 ?
tak=1 bo 3,5,7…
~P2*~P8 =1
0 0 =1
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8 =1
LUB
D.
Czy może zaistnieć ~p i q ?
tak=1
nie=0
Czy może zaistnieć ~P2 i P8 ?
nie=0 - nie ma takiej możliwości
~P2*P8 =0
0 1 =0
Jeśli liczba nie jest podzielna przez 2 to na pewno => jest podzielna przez 8
~P2=>P8 =0
Jak widzimy w NTI to analiza zdania generuje wynik, czyli wartość logiczną zdania:
1 - sytuacja możliwa do zaistnienia
0 - sytuacja niemożliwa do zaistnienia
Wygenerowana tabela zero-jedynkowa implikacji odwrotnej ~>:
Kod: |
p q p~>q
1 1 =1 / P2~> P8=1
1 0 =1 / P2~~>~P8=1
0 0 =1 /~P2=>~P8=1
0 1 =0 /~P2=> P8=0
|
Zauważmy, że absolutnie genialna jest tu definicja operatorowa, zaprezentowana zawsze w ostatniej linii która opisuje istotę operatorów =>, <=> i ~>, czyli zachodzący warunek konieczny ~> (A) i wystarczający => (C).
4.3 Przykład równoważności <=>
Dokładnie tak samo jak wyżej analizujemy równoważność.
Definicja zero-jedynkowa równoważności:
Kod: |
p q p<=>q
A. 1 1 =1
B. 1 0 =0
C. 0 0 =1
D. 0 1 =0
|
W NTI wszystkie pozycje tabeli zero jedynkowej sprowadzamy do zdania wypowiedzianego czyli do 1 1 =1 kodując symbolicznie w logice dodatniej:
p=1, ~p=0
q=1, ~q=0
Kod: |
p q p<=>q
A. p q =1
B. p ~q =0
C.~p ~q =1
D.~p q =0
|
Zauważmy, że definicja symboliczna równoważności jest „identyczna” jak definicja implikacji prostej => z fundamentalną różnicą, zero w linii D. Małe, a robi straszliwą różnicę.
Sposób generowania wynikowych zer i jedynek jest identyczny w implikacji prostej =>, równoważności <=> i implikacji odwrotnej ~>, analizujemy poszczególne zdania wynikłe z definicji i w wyniku piszemy 0 albo 1.
Przykład:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR
Analiza matematyczna.
W NTI dla każdej linii zadajemy sobie fundamentalne pytanie:
A.
Czy może zaistnieć p i q ?
tak=1
nie =0
Czy może zaistnieć TR i KR ?
tak=1
TR*KR =1
1 1 =1
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR =1
B.
Czy może zaistnieć p i ~q ?
tak=1
nie=0
Czy może zaistnieć TR i ~KR ?
nie =0 - bo każdy trójkąt równoboczny ma kąty równe
TR i ~KR =0
1 0 =0
Jeśli trójkąt jest równoboczny to na pewno => nie ma kątów równych
TR=>~KR=0
C.
Czy może zaistnieć ~p i ~q ?
tak=1
nie =0
Czy może zaistnieć ~TR i ~KR ?
tak=1 - wszelkie inne trójkąty poza równobocznym
~TR*~KR =1
0 0 =1
Jeśli trójkąt nie jest równoboczny to na pewno =>nie ma kątów równych
~TR=>~KR =1
D.
Czy może zaistnieć ~p i q ?
tak=1
nie=0
Czy może zaistnieć ~TR i KR ?
nie=0 - nie ma takiej możliwości
~TR*KR =0
0 1 =0
Jeśli trójkąt nie jest równoboczny to na pewno =>ma kąty równe
~TR~~>KR =0
Jak widzimy w NTI to analiza zdania generuje wynik, czyli wartość logiczną zdania:
1 - sytuacja możliwa do zaistnienia
0 - sytuacja niemożliwa do zaistnienia
Uzyskana tabela zero-jedynkowa:
Kod: |
p q p<=>q
1 1 =1 / TR=> KR=1
1 0 =0 / TR=>~KR=0
0 0 =1 /~TR=>~KR=1
0 1 =0 /~TR=> KR=0
|
Powyższa tabela to ewidentna równoważność wygenerowana poprzez naturalną analizę wszystkich przypadków jakie mogą zaistnieć.
Nie jest to tabela przyniesiona w teczce jak to ma miejsce w KRZ.
Na podstawie powyższej analizy zapisujemy dziewiczą definicję operatorową równoważności.
p<=>q = (p=>q)*(~p=>~q)
Prawo kontrapozycji poprawne w równoważności:
~p=>~q = q=>p
stąd odprysk definicji równoważności:
p<=>q = (p=>q)*(q=>p)
Dla naszego przykładu:
A.
TR<=>KR = (TR=>KR)*(~TR=>~KR) = 1*1 =1 - ewidentna równoważność.
Na podstawie powyższego mamy prawo powiedzieć B i C bo zdania te są częścią definicji równoważności.
B.
Jeśli trójkąt jest równoboczny to ma kąty równe
TR=>KR
LUB
C.
Jeśli trójkąt nie jest równoboczny to nie ma kątów równych
~TR=>~KR
Zauważmy, że analizując zdanie B lub C w sposób zgodny i ideą NTI otrzymamy dokładnie taką samą tabelę jak w A, czyli zero-jedynkową tabelę równoważności.
Oczywiście matematycznie zachodzi:
TR<=>KR # TR=>KR
Zdania B I C to tylko I wyłącznie warunki wystarczające w stronę TR=>KR i ~TR=>~KR. Każde z nich definiowane jest przez dwie linie tabeli zero-jedynkowej, to nie są implikacje bo nie spełniają definicji zero-jedynkowej implikacji.
Definicje występujących tu warunków wystarczających są następujące:
Kod: |
Warunek wystarczający w logice dodatniej (KR - niezanegowane)
TR KR TR=>KR
1 1 =1 /TR=>KR=1
1 0 =0 /TR=>~KR=0
|
Kod: |
Warunek wystarczający w logice ujemnej (~KR - zanegowane)
~TR ~KR ~TR=>~KR
0 0 =1 /~TR=>~KR=1
0 1 =0 /~TR=>KR=0
|
Nikt nie ma prawa zabronić nam wypowiadania zdań typu B i C bo zdania te wchodzą w skład dziewiczej definicji równoważności:
TR<=>KR = (TR=>KR)*(~TR=>~KR) = 1*1 =1 - ewidentna równoważność.
Oczywiście w równoważnej definicji równoważności:
TR<=>KR = (TR=>KR)*(KR=>TR) = 1 *1 =1
po prawej stronie również chodzi wyłącznie o warunki wystarczające, to nie są implikacje !
Fundament NTI:
Treść zdania ujęta w spójnik „Jeśli…to…” decyduje o tym czy zdanie jest implikacją prostą =>, implikacją odwrotną ~>, albo tylko warunkiem wystarczającym => (część składowa równoważności).
KRZ ma fatalny fundament:
Każde zdanie ujęte w spójnik „Jeśli…to…” jest implikacją, treść jest nieistotna.
Zmusza to KRZ do analizowania wszelkich możliwych śmieci. KRZ najlepiej działa na śmieciach czyli zdaniach w których p jest niezależne od q.
Zauważmy, że w NTI dowolne zdanie „Jeśli…to…” w którym p jest niezależne od q jest zdaniem fałszywym, bo iloczyn warunków rozłącznych jest równy zeru.
Jeśli w zdaniu „Jeśli…to…” p lub q ma z góry znaną wartość logiczną to takie zdanie jest w NTI implikacją fałszywą bo niemożliwe jest aby spełniało tabelę zero-jedynkową implikacji w rozumieniu NTI jak wyżej.
4.4 Przykład obietnicy =>
Na zakończenie tematu tworzenia tabel zero-jedynkowych w NTI rozważmy typową obietnicę podlegającą pod definicję implikacji prostej.
Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N
Implikacja prosta bo dobrowolnych obietnic musimy dotrzymywać.
Jeśli spełniony zostanie warunek nagrody to mamy gwarancję nagrody.
Przykład:
Jeśli wygram milion w TOTKA kupię ci samochód
M=>S
Implikacja prosta bo dobrowolnych obietnic musimy dotrzymywać
Analiza matematyczna:
W NTI dla każdej linii zadajemy sobie fundamentalne pytanie:
A.
Czy może zaistnieć p i q ?
tak=1
nie =0
Czy może zaistnieć M i S ?
tak=1 - mam szansę wygrać milion
M*S =1
1 1 =1
Jeśli wygram milion w TOTKA kupię ci samochód
M=>S =1
B.
Czy może zaistnieć p i ~q ?
tak=1
nie=0
Czy może zaistnieć M i ~S ?
nie =0 bo jeśli wygram i nie kupię to skłamałem
M*~S =0
1 0 =0
Jeśli wygram milion w TOTKA to nie kupię ci samochodu
M=>~S=0
… a jeśli zajdzie ~p ?
Prawo Kubusia:
M=>S = ~M~>~S
C.
Czy może zaistnieć ~p i ~q ?
tak=1
nie =0
Czy może zaistnieć ~M i ~S ?
tak=1 - jak nie wygram to mogę nie kupić samochodu
~M*~S =1
0 0 =1
Jeśli nie wygram miliona w TOTKA to mogę ~> nie kupić ci samochodu
~M~>~S =1
LUB
D.
Czy może zaistnieć ~p i q ?
tak=1
nie=0
Czy może zaistnieć ~M i S ?
tak=1 - nie wygrałem ale mimo wszystko kupiłem ci samochód (akt miłości)
~M*S =1
0 1 =1
Jeśli nie wygram miliona w TOTKA to mogę ~~> kupić ci samochód
~M~~>S =1
Ojciec do syna:
Nie wygrałem miliona, kupiłem ci samochód bo cię kocham
Nie wygrałem miliona, ale kupiłem ci samochód na raty itp
Wygenerowana tabela zero-jedynkowa implikacji prostej =>:
Kod: |
p q p=>q
1 1 =1 / M=> S=1
1 0 =0 / M=>~S=0
0 0 =1 /~M~>~S=1
0 1 =1 /~M~~>S=1
|
Wszystkie wymienione wyżej sytuacje są możliwe do zaistnienia, ale weźmy taką obietnicę.
Jeśli zamienisz się w osła to kupię ci samochód
O=>S
Analiza matematyczna:
A.
Czy może zaistnieć p i q ?
tak=1
nie =0
Czy może zaistnieć O i S ?
nie=0 !
Nie może zaistnieć przypadek „jestem osłem i mam samochód” bo zamiana w osła jest niemożliwa
O*S =0
1 1 =0
Jeśli zamienisz się w osła to kupię ci samochód
M=>S =0
Koniec analizy matematycznej. Istotą implikacji jest gwarancja matematyczna, a ta jak widać wyżej nie ma szans wystąpić. W tabeli zero jedynkowej implikacji prostej => nie ma sekwencji 1 1 =0, nie ma jej też w równoważności <=> i implikacji odwrotnej ~>, zatem to zdanie jest totalnie fałszywe.
Ciąg dalszy na kolejnej stronie …
|
|
Powrót do góry |
|
|
|
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35367
Przeczytał: 20 tematów
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Czw 22:31, 18 Mar 2010 Temat postu: |
|
|
5.0 Definicje warunków wystarczających i koniecznych w NTI
Fundament algebry Kubusia w zakresie implikacji
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” => zajść q
p musi być warunkiem wystarczającym dla q
=> - operator implikacji prostej, spójnik „musi” ze spełnionym warunkiem wystarczającym
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Spójniki zdaniowe
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Prawa Kubusia:
p=>q = ~p~>~q - prawo zamiany operatora implikacji prostej => na odwrotną ~>
p~>q = ~p=>~q - prawo zamiany operatora implikacji odwrotnej ~> na prostą =>
Fundament NTI:
Treść zdania ujęta w spójnik „Jeśli…to…” decyduje o tym czy zdanie jest implikacja prostą =>, implikacją odwrotną ~>, albo tylko warunkiem wystarczającym => (część składowa równoważności).
W NTI równoważność <=>, implikacja prosta =>, i implikacja odwrotna ~>, to zawsze kombinacja dwóch warunków, wystarczającego => i koniecznego ~>.
Warunki wystarczające i konieczne nie są operatorami logicznymi, bowiem opisywane są zaledwie dwoma liniami tabeli zero-jedynkowej. Operator logiczny to wszystkie możliwe kombinacje zer i jedynek, czyli dla operatorów dwuargumentowych mamy cztery linie.
Istnieje tu kolizja w symbolice bo:
=> - implikacja prosta gdy spełnione prawo Kubusia p=>q = ~p~>~q (cztery linie)
=> - tylko warunek wystarczający, zdefiniowany jak niżej dwoma liniami
~> - implikacja odwrotna gdy spełnione prawo Kubusia p~>q = ~p=>~q (cztery linie)
~> - tylko warunek konieczny, zdefiniowany jak niżej dwoma liniami
Nie ma sensu wprowadzanie tu komputerowej precyzji czyli jeśli różne to różne nazwy, bo wszystko jest banalnie proste. Kubuś jest wrogiem superprecyzji nawet w matematyce, bo mózg człowieka to nie komputer.
5.1 Zasady używania terminu „implikacja”
1.
W świecie rzeczywistym, poza matematyką króluje implikacja, równoważność jest tu bardzo rzadkim zjawiskiem. W języku potocznym poza matematyką wszelkie zdania „Jeśli …to…” możemy śmiało uznać za implikacje. W szczególności wszelkie groźby (implikacja odwrotna ~>) i obietnice (implikacja prosta =>) to piękne implikacje
2.
W matematyce jeśli formujemy jakieś założenie i tezę w twierdzeniu „Jeśli…to…” to wstępnie możemy to nazywać implikacją. Jeśli udowodnimy zachodzenie warunku wystarczającego w stronę p=>q to dalej całe zdanie możemy nazywać implikacją, bo zdanie może być implikacją prostą => albo równoważnością, to dopiero trzeba udowodnić.
3.
Jeśli po udowodnieniu warunku wystarczającego p=>q udowodnimy zachodzenie prawa Kubusia:
p=>q = ~p~>~q
to mamy bezdyskusyjną implikację prostą =>
4.
Jeśli udowodnimy zachodzenie warunku koniecznego w kierunku p~>q to mamy bezdyskusyjną implikacje odwrotną ~>. Zauważmy bowiem, że jeśli p jest konieczne dla q to zajście ~p gwarantuje zajście ~q. W sposób naturalny odkryliśmy tu prawo Kubusia.
p~>q = ~p=>~q
3.
Jeśli udowodnimy zachodzenie warunków wystarczających wzdłuż dowolnego boku kwadratu logicznego równoważności (pkt.5.4), to całe zdanie jest równoważnością. W tym momencie w zasadzie nie mamy prawa do używania terminu „implikacja” w stosunku do zdania p=>q (nasz przykład TR=>KR), bo zdanie to nie spełnia definicji zero-jedynkowej implikacji prostej. Takie zdanie to tylko i wyłącznie warunek wystarczający, będący częścią składową definicji równoważności.
Przykład:
A.
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR=>~KR).
Zdanie z powyższego będące tylko warunkiem wystarczającym:
B.
Jeśli trójkąt jest równoboczny to ma kąty równe
TR=>KR
Oczywiście matematycznie zachodzi:
TR<=>KR # TR=>KR
Nikt nie może nam zabronić wypowiadania zdania B, bo to jest część składowa definicji równoważności. Myślę, że uczeń pierwszej klasy LO może używać terminu „implikacja” nawet w stosunku do zdań typu „TR=>KR” (jeśli interesuje go warunek wystarczający właśnie w tą stronę), ale poproszony przez nauczyciela o uściślenie terminologii, powinien umieć wyjaśnić precyzyjnie czym jest zdanie TR=>KR, to tylko warunek wystarczający wchodzący w skład definicji równoważności, żadna implikacja.
Fundamentalne operatory logiczne równoważności <=>, implikacji prostej => i implikacji odwrotnej ~> są złożeniem następujących warunków wystarczających/koniecznych.
A.
Równoważność <=>:
Warunek wystarczający dodatni w stronę p=>q
Warunek wystarczający ujemny w stronę ~p=>~q
Definicja:
p<=>q = (p=>q)*(~p=>~q)
B.
Implikacja prosta =>:
Warunek wystarczający dodatni w stronę p=>q (identyczny jak wyżej !)
Warunek konieczny ujemny w stronę ~p~>~q
Prawo Kubusia:
p=>q = ~p~>~q
C.
Implikacja odwrotna ~>:
Warunek konieczny dodatni w stronę p~>q
Warunek wystarczający ujemny w stronę ~p=>~q
Prawo Kubusia:
p~>q = ~p=>~q
Zauważmy, że czwarty możliwy przypadek (D) nie ma prawa wystąpić bo będziemy mieli gwałt na algebrze Boole’a !
D.
Warunek konieczny dodatni w stronę p~>q
Warunek konieczny ujemny w stronę ~p~>~q
Rozumowanie:
Jeśli p jest konieczne dla q to zajście ~p gwarantuje zajście ~q.
W sposób naturalny odkryliśmy tu prawo Kubusia:
p~>q = ~p=>~q
CND
5.2 Definicje warunków wystarczających/koniecznych
Warunek wystarczający w logice dodatniej.
Kod: |
Wystarczający dodatni
p=>q =1
1 1 =1
p=>~q=0
1 0 =0
|
Przykład warunku wystarczającego nie będącego implikacją:
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR
Trójkąt równoboczny gwarantuje równe kąty, ale to tylko warunek wystarczający, część składowa równoważności, nie implikacja !
Przykład implikacji prostej:
Jeśli liczba jest podzielna przez 8 to na pewno=> jest podzielna przez 2
P8=>P2
P8 wystarcza dla P2, implikacja prosta bo zachodzi prawo Kubusia:
P8=>P2 = ~P8~>~P2
Warunek wystarczający w logice ujemnej.
Kod: |
Wystarczający ujemny (bo ~q)
~p=>~q =1
0 0 =1
~p=>q =0
0 1 =0
|
Przykład warunku wystarczającego nie będącego implikacją:
Jeśli trójkąt nie jest równoboczny to na pewno nie ma kątów równych
~TR=>~KR
Trójkąt nie równoboczny gwarantuje brak katów równych, ale to jest tylko warunek wystarczający (część definicji równoważności TR<=>KR), nie jest to implikacja prosta !
Przykład implikacji prostej w logice ujemnej:
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8
~P2 wystarcza dla ~P8, warunek wystarczający spełniony.
Oczywiście zachodzi tu prawo Kubusia:
~P2=>~P8 = P2~>P8
co gwarantuje implikacje prostą ~P2=>~P8, równoważną implikacji odwrotnej P2~>P8.
Warunek konieczny w logice dodatniej:
Kod: |
Konieczny dodatni
p~>q =1
1 1 =1
p~~>~q=1
1 0 =1
|
Przykład:
Jeśli zwierzę ma cztery łapy to może być psem
4L~>P
Posiadanie czerech łap jest warunkiem koniecznym aby być psem
Uwaga:
W implikacji odwrotnej jeśli p jest konieczne dla q to zajście ~p gwarantuje zajście ~q
W sposób naturalny odkryliśmy tu prawo Kubusia:
p~>q = ~p=>~q
Wniosek:
Jeśli stwierdzimy warunek konieczny w stronę p~>q to mamy gwarantowaną implikację odwrotną ~>, operator logiczny. W przeciwieństwie do warunku wystarczającego, warunek konieczny nie może istnieć samodzielnie bo prawo Kubusia wyżej.
Warunek konieczny w logice ujemnej:
Kod: |
Konieczny ujemny (bo ~q)
~p~>~q =1
0 0 =1
~p~~>q=1
0 1 =1
|
Przykład:
Jeśli zwierzę nie jest psem to może nie mieć czterech łap
~P~>~4L
Nie bycie psem jest warunkiem koniecznym, aby nie mieć czterech łap
Cała NTI na odpowiednim złożeniu powyższych warunków stoi.
5.3 Definicje operatorów logicznych
Warunki wystarczające i konieczne nie są operatorami logicznymi bo opisane są przez zaledwie dwie linie z tabeli zero-jedynkowej. Operator logiczny opisuje wszystkie możliwe przypadki, czyli przy dwu argumentach mamy tu cztery linie.
Fundament NTI to odpowiednie złożenie warunków wystarczających/koniecznych jak niżej, tworzące definicje operatorów logicznych
Równoważność
Kod: |
Wystarczający dodatni
p=>q =1
1 1 =1
p=>~q=0
1 0 =0
|
Kod: |
Wystarczający ujemny (bo ~q)
~p=>~q =1
0 0 =1
~p=>q =0
0 1 =0
|
Dziewicza definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)
Przykład:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR*~KR)
Implikacja prosta =>
Kod: |
Wystarczający dodatni
p=>q =1
1 1 =1
p=>~q=0
1 0 =0
|
Prawo Kubusia:
p=>q = ~p~>~q
Kod: |
Konieczny ujemny (bo ~q)
~p~>~q =1
0 0 =1
~p~~>q=1
0 1 =1
|
Przykład:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2
P8 jest wystarczające dla P2 i spełnione jest prawo Kubusia, zatem implikacja prosta prawdziwa
Prawo Kubusia:
P8=>P2 = ~P8~>~P2
Implikacja odwrotna ~>
Kod: |
Konieczny dodatni
p~>q =1
1 1 =1
p~~>~q=1
1 0 =1
|
Prawo Kubusia:
p~>q = ~p=>~q
Kod: |
Wystarczający ujemny (bo ~q)
~p=>~q =1
0 0 =1
~p=>q =0
0 1 =0
|
Przykład:
Jeśli liczba jest podzielna przez 2 to może być podzielna przez 8
P2~>P8
P2 jest konieczne dla P8, zatem implikacja odwrotna prawdziwa
Fundament NTI:
Treść zdania ujęta w spójnik „Jeśli…to…” decyduje o tym czy zdanie jest implikacja prostą =>, implikacją odwrotną ~>, albo tylko warunkiem wystarczającym => (część składowa równoważności).
Podsumowanie:
1.
Operator wtedy i tylko wtedy <=> zawsze jest operatorem logicznym o definicji:
p<=>q = (p=>q)*(~p=>~q)
2.
Zdanie „Jeśłi…to…” wypowiedziane w NTI to zawsze warunek wystarczający lub konieczny, to zaledwie połowa odpowiedniego operatora logicznego. O tym jaki to operator logiczny decyduje analiza zdania przez definicję odpowiedniego operatora logicznego: równoważności <=>, implikacji prostej => lub implikacji odwrotnej ~>.
3.
Zdanie „Jeśli…to…” może być:
A.
Implikacją prostą jeśli spełnia prawo Kubusia:
p=>q = ~p~>~q
Po obu stronach tożsamości chodzi o warunek wystarczający dodatni p=>q i konieczny ujemny w stronę ~p~>~q
B.
Implikacją odwrotną ~> jeśli spełnia prawo Kubusia:
p~>q = ~p=>~q
Po obu stronach tożsamości chodzi o warunki konieczny dodatni w stronę p~>q i wystarczający ujemny ~p=>~q
C.
Tylko warunkiem wystarczającym wchodzącym w skład definicji równoważności:
p<=>q = (p=>q)*(~p=>~q)
Prawo kontrapozycji:
~p=>~q = q=>p
stąd definicja równoważna:
p<=>q = (p=>q)*(q=>p)
5.4 Kwadraty logiczne równoważności i implikacji
Znany w matematyce kwadrat logiczny implikacji ma totalnie zero wspólnego z implikacją, w tym kwadracie chodzi wyłącznie o warunki wystarczające !
cytat:
[link widoczny dla zalogowanych]
Kod: |
Tabela A
Kwadrat logiczny równoważności
p=>q q=>p
~p=>~q ~q=>~p
|
Przykład równoważności:
A.
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR=>~KR)
Oczywiście z prawej strony mamy do czynienia wyłącznie z warunkami wystarczającymi, to nie są implikacje proste !
Na podstawie powyższej definicji mamy prawo powiedzieć:
B.
Jeśli trójkąt jest równoboczny to ma kąty równe.
TR=>KR
Prawo kontrapozycji poprawne w równoważności:
TR=>KR = ~KR=>~TR
czyli:
D.
Jeśli trójkąt nie ma kątów równych to na pewno nie jest równoboczny
~KR=>~TR
W równoważności jest obojętne co nazwiemy p a co q bo tu zachodzi przemienność argumentów.
Kwadrat logiczny dla naszego przykładu:
Kod: |
Tabela A
Kwadrat logiczny równoważności
TR=>KR KR=>TP
~TR=>~KR ~KR=>~TP
|
Kwadrat logiczny implikacji
W implikacji „Jeśli…to…” argumenty są nieprzemienne i tu zawsze po „Jeśli…” mamy p, zaś zawsze po „to…” mamy q, czyli we wszelkich zapisach formalnych p musi być „umocowane” do podstawy wektora implikacji prostej => lub odwrotnej ~>.
Kod: |
Tabela B
Kwadrat logiczny implikacji
Implikacja Implikacja
prosta odwrotna
p=>q p~>q
~p~>~q ~p=>~q
|
Przykład implikacji prostej:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2
P8 wystarcza dla P2, zatem implikacja prosta prawdziwa bo dodatkowo spełniona jest wyrocznia implikacji, prawo Kubusia:
P8=>P2 = ~P8~>~P2
Uwaga:
Stwierdzenie warunku wystarczającego w kierunku p=>q nie gwarantuje implikacji prostej =>, bowiem może to być tylko warunek wystarczający => wchodzący w skład równoważności, nie implikacja.
Przykład implikacji odwrotnej:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8
P2 jest konieczne dla P8, implikacja odwrotna prawdziwa.
P2~>P8 = ~P2=>~P8
Uwaga:
Stwierdzenie warunku koniecznego w kierunku p~>q gwarantuje implikacje odwrotną, bowiem jeśli p jest konieczne dla q to zajście ~p gwarantuje zajście ~q.
W sposób naturalny odkryliśmy tu prawo Kubusia:
p~>q = ~p=>~q
Kwadrat logiczny implikacji dla naszego przykładu:
Kod: |
Tabela B
Kwadrat logiczny implikacji
Implikacja Implikacja
prosta odwrotna
P8=>P2 P2~>P8
~P8~>~P2 ~P2=>~P8
|
Lewa i prawa strona kwadratu logicznego to dwa niezależne układy implikacyjne (dwie fundamentalnie inne definicje => i ~>), pomiędzy którymi nie zachodzą żadne prawa matematyczne, w szczególności „prawo” kontrapozycji. Nie wolno brać sobie jednej połówki z definicji implikacji prostej p=>q (tu P8=>P2) i drugiej połówki fundamentalnie innej definicji implikacji odwrotnej p~>q (tu ~P2=>~P8) i twierdzić że jakieś tam „prawo” kontrapozycji zachodzi.
Matematycznie:
p=>q # p~>q
bo to dwie fundamentalnie inne definicje zero-jedynkowe.
Czyli dla naszego przykładu:
P8=>P2 # ~P2=>~P8
Prawo kontrapozycji jest w implikacji fałszywe.
W implikacjach bezczasowych prawo to będzie pozornie prawdziwe, ale tylko pozornie, nie matematycznie. Kolejny twardy dowód dalej przy okazji równania ogólnego implikacji prawdziwego w KRZ i NTI.
Twierdzenie:
Równoważność zachodzi wtedy i tylko wtedy gdy zachodzą warunki wystarczające wzdłuż dowolnego boku kwadratu logicznego.
Prawo kontrapozycji jest w równoważności prawdziwe, ale totalnie bezużyteczne bo nie jest to dowód występowania warunku wystarczającego wzdłuż boku kwadratu, zatem nie jest to dowód równoważności. Takie zdanie może być równoważnością albo implikacją, to jest nie do rozpoznania !
Z kolei jeśli udowodnimy zachodzenie warunku wystarczającego wzdłuż dowolnego boku kwadratu, to mamy dowód iż zdanie jest równoważnością, po cholerę nam wtedy prawo kontrapozycji jeśli rozstrzygnięcie już nastąpiło ?
Identycznie jest w implikacji gdzie prawo kontrapozycji jest fałszywe. Co z tego że pozornie „zachodzi” jeśli badane zdanie może być implikacją albo równoważnością ?
Totalne zero korzyści !
Gwarancję implikacji dają prawa Kubusia:
p=>q = ~p~>~q - jeśli zachodzi to gwarantowana implikacja prosta =>
p~>q = ~p=>~q - jeśli zachodzi to gwarantowana implikacja odwrotna ~>
Przykład bezużyteczności prawa kontrapozycji:
A.
Jeśli trójkąt jest równoboczny to ma kąty równe
TR=>KR
Prawo kontrapozycji:
TR=>KR = ~KR=>~TR
Jeśli trójkąt nie ma kątów równych to nie jest równoboczny
~KR=>~TR
i
B.
Jeśli liczba jest podzielna przez 8 to jest podzielna przez 2
P8=>P2
P8 jest wystarczające dla P2, zatem warunek wystarczający spełniony
Prawo kontrapozycji:
P8=>P2 = ~P2=>~P8
Jeśli liczba nie jest podzielna przez 2 to na pewno nie jest podzielna przez 8
~P2=>~P8
Zdania A i B to matematycznie fundamentalnie inne zdania, mimo że w obu spełniony jest warunek wystarczający w stronę p=>q. Zdanie A to tylko warunek wystarczający (nie implikacja !), natomiast B to piękna implikacja prosta.
Zdanie A nie jest implikacją bo nie spełnia definicji zero-jedynkowej implikacji.
Zdanie A to tylko warunek wystarczający, wchodzący w skład definicji równoważności:
TR<=>KR = (TR=>KR)*(~TR=>~KR)
Jeśli spojrzymy wyżej na kwadrat logiczny równoważności to łatwo zauważymy, że prawo kontrapozycji niczego tu nie rozwiązuje, bo nie jest to dowód iż zdanie A jest równoważnością.
W kwadracie logicznym zdanie jest równoważnością wtedy tylko wtedy gdy zachodzą warunki wystarczające wzdłuż dowolnego boku kwadratu.
Prawo kontrapozycji poprawne w równoważności:
TR=>KR = ~KR=>~TR
Zdanie B to piękna implikacja o czym decyduje zachodzące prawo Kubusia:
P8=>P2 = ~P8~>~P2 - tu oczywiście spełnione
Zauważmy jednak, że tu również „prawo” kontrapozycji jest totalnie bezużyteczne bo nie rozstrzyga najważniejszego tzn. czy zdanie jest implikacją czy też równoważnością, może być czymkolwiek.
Prawo kontrapozycji w implikacji jest fałszywe:
P8=>P2 # ~P2=>~P8
Oczywiście na mocy definicji równoważność to iloczyn logiczny dwóch warunków wystarczających:
p<=>q = (p=>q)*(q=>p)
dla naszego przykładu:
TR<=>KR = (TR=>KR)*(KR=>TR) = 1*1 =1
Wykluczona jest natomiast równoważność, błędnie rozumiana jako iloczyn logiczny dwóch implikacji prostych p=>q i q=>p bo:
Kod: |
p q p=>q q=>p
1 1 1 1
1 0 0 1
0 0 1 1
0 1 1 0
|
stąd:
Prawo algebry Boole’a poprawne w KRZ i NTI:
p=>q # q=>p
czyli:
Jeśli p=>q=1 to na pewno q=>p=0
Jeśli q=>p=1 to na pewno p=>q=0
Na mocy definicji równoważności mamy:
p<=>q = (p=>q)*(q=>p) = 1*0 =0
albo
p<=>q = (p=>q)*(q=>p) = 0*1 =0
czyli:
Wykluczona jest równoważność rozumiana jako iloczyn logiczny dwóch implikacji prostych p=>q i q=>p bo takowe są niemożliwe do zaistnienia jednocześnie.
Nasz przykład:
P8<=>P2 = (P8=>P2)*(P2=>P8) = 1*0 =0
5.5 Równanie ogólne implikacji
NTI - Nowa Teoria Implikacji
KRZ - Klasyczny Rachunek Zdań
W tym punkcie pokażemy do jakiego momentu NTI jest zgodna z KRZ.
Dowód praw Kubusia metodą zero-jedynkową.
Definicja zero-jedynkowa implikacji prostej:
Kod: |
p q Y = p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
To samo w równaniu algebry Boole’a:
p=>q = ~p+q = ~(p*~q)
Definicja zero-jedynkowa implikacji odwrotnej:
Kod: |
p q Y = p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
To samo w równaniu algebry Boole’a:
p~>q = p+~q = ~(~p*q)
Prawo Kubusia dla operatora implikacji prostej =>:
Kod: |
p q p=>q ~p ~q ~p~>~q
1 1 =1 0 0 =1
1 0 =0 0 1 =0
0 0 =1 1 1 =1
0 1 =1 1 0 =1
|
To samo w równaniu:
p=>q = ~p~>~q = ~p+q = ~(p*~q) - prawo Kubusia plus prawo de’Morgana
Prawo Kubusia poprawne w NTI i KRZ:
p=>q = ~p~>~q - prawo zamiany operatora implikacji prostej => na odwrotną ~>
Prawo Kubusia dla operatora implikacji odwrotnej:
Kod: |
p q p~>q ~p ~q ~p=>~q
1 1 =1 0 0 =1
1 0 =1 0 1 =1
0 0 =1 1 1 =1
0 1 =0 1 0 =0
|
To samo w równaniu:
p~>q = ~p=>~q = p+~q = ~(~p*q) - prawo Kubusia plus prawo de’Morgana
Prawo Kubusia poprawne w NTI i KRZ:
p~>q = ~p=>~q - prawo zamiany operatora implikacji odwrotnej ~> na implikacje prostą =>
Na podstawie definicji mamy:
Kod: |
p q p=>q p~>q
1 1 1 1
1 0 0 1
0 0 1 1
0 1 1 0
|
Stąd prawo NTI i KRZ:
p=>q # p~>q
Na podstawie powyższego zapisujemy równanie ogólne implikacji prawdziwe na gruncie NTI i KRZ:
p=>q = ~p~>~q = ~p+q = ~(p*~q) # p~>q = ~p=>~q = p+~q = ~(~p*q)
Stąd uproszczone równanie ogólne implikacji:
p=>q = ~p~>~q # p~>q = ~p=>~q
Zauważmy, że prawa Kubusia i wyprowadzone równanie ogólne implikacji nie wymagały jakichkolwiek dodatkowych założeń typu warunek wystarczający/konieczny. Równanie ogólne implikacji jest wiec prawdziwe w całym obszarze algebry Boole’a.
Równanie ogólne implikacji to świętość w algebrze Boole’a, która nigdy nie może być zgwałcona, podobnie jak prawo Ohma czy prawa Kirchhoffa z obszaru fizyki.
Pozostaje tylko drobiazg, rozszyfrowanie tego równania.
6.0 Niezwykłe dowody w historii logiki
Celem tego punktu jest totalne rozwalenie współczesnej logiki w zakresie implikacji, a będzie nim zabranie matematykom błędnego matematycznie równania:
p=>q = q~>p co w przełożeniu na algebrę dziesiętną odpowiada 2=--2
i zastąpienie go poprawnym matematycznie równaniem z NTI:
p=>q # q~>p co w przełożeniu na algebrę dziesiętna odpowiada 2#-2
Oczywiście chodzi tu o rozróżnianie logiki dodatniej i ujemnej w algebrze Boole’a
6.1 p=>q # q~>p dowód na zbiorach
Równanie ogólne implikacji poprawne w KRZ i NTI:
p=>q = ~p~>~q = ~p+q = ~(p*~q) # p~>q = ~p=>~q = p+~q = ~(~p*q)
Wypowiadam zdanie:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2 =1
P8 jest wystarczajże dla P2 zatem implikacja prosta prawdziwa
Oczywiście zachodzi tu lewa strona równania ogólnego implikacji:
P8=>P2 = ~P8~>~P2 = ~P8+P2 = ~(P8*~P2)
Wypowiadam teraz zupełnie inne zdanie:
B.
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8
P2 jest konieczne dla P8 zatem implikacja odwrotna prawdziwa
W tym przypadku zachodzi prawa strona równania ogólnego implikacji:
P2~>P8 = ~P2=>~P8 = P2+~P8 = ~(~P2*P8)
Dla A i B pełne równanie ogólne implikacji przybierze postać:
P8=>P2 = ~P8~>~P2 = ~P8+P2 = ~(P8*~P2) # P2~>P8 = ~P2=>~P8 = P2+~P8 = ~(~P2*P8)
Istotą implikacji jest gwarancja matematyczna gwarantowana przez operator implikacji prostej =>
Dla lewej strony mamy:
Jeśli liczba jest podzielna przez 8 to na pewno jest podzielna przez 2
P8=>P2 =1
Gwarantowany zbiór: 8,16,24 …
To samo w operatorach AND:
Nie może się zdarzyć, że liczba jest podzielna przez 8 i nie jest podzielna przez 2
~(P8*~P2) =1
Gwarantowany zbiór: 8,16,24…
Dla prawej strony mamy:
Jeśli liczba nie jest podzielna przez 2 to na pewno nie jest podzielna przez 8
~P2=>~P8 =1
Gwarantowane liczby: 3,5,7…
To samo w operatorze AND:
Nie może się zdarzyć ~(…), że liczba nie jest podzielna przez 2 i jest podzielna przez 8
~(~P2*P8)
Gwarantowane liczby: 3,5,7 …
Zauważmy że zbiory:
P8=>P2 # ~P2=>~P8
Poza gwarancjami jest zbiór:
P2~~>~P8 = ~P8~~>P2
2,4,6..
Dlatego to jest implikacja a nie równoważność
Wnioski:
1.
Nie zachodzi przemienność argumentów w operatorach AND i OR wynikłych z definicji implikacji bo:
~(P8*~P2) # ~(~P2*P8)
Po obu stronach nierówności mamy do czynienie z dwoma różnymi zbiorami jak wyżej
2.
Poza tymi gwarancjami jest trzeci zbiór liczb podzielnych przez 2 i niepodzielnych przez 8 czyli 2,4,6…. Dlatego to jest implikacja a nie równoważność.
3.
Prawo kontrapozycji w implikacji jest fałszywe bo:
P8=>P2 # ~P2=>~P8
po przywiązaniu na stałe p i q do lewej strony mamy:
p=>q # ~q=>~p
6.2 p=>q # q~>p dowód poprzez sprowadzenie do sprzeczności
Stary paradygmat nauki:
Implikacja odwrotna ~>, prawa Kubusia i równanie ogólne implikacji są w logice zbędne mimo że poprawne w samym KRZ (sic !).
Równanie ogólne implikacji w starym paradygmacie:
p=>q = ~p~>~q = q~>p = ~q=>~p - poprawne wyłącznie w KRZ
albo:
p=>q = ~p~>~q # p~>q = ~p=>~q - poprawne w NTI i KRZ
Oba powyższe równania są w KRZ poprawne.
Nowy paradygmat nauki:
Poprawne równanie ogólne implikacji jest tylko jedno:
p=>q = ~p~>~q # p~>q = ~p=>~q - poprawne w NTI i KRZ
Aby obalić stary paradygmat wystarczy udowodnić że:
p=>q # q~>p
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” => zajść q
p musi być warunkiem wystarczającym dla q
=> - operator implikacji prostej, spójnik „musi” ze spełnionym warunkiem wystarczającym
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Dowód 1
A.
Wypowiadam zdanie:
Jeśli liczba jest podzielna przez 8 to jest podzielna przez 2
P8=>P2 =~P8~>~P2
Gwarantowany zbiór:
8,16,24 ...
Wypowiadam teraz zupełnie inne zdanie:
B.
Jeśli liczba jest podzielna przez 2 to może być podzielna przez 8
P2~>P8 = ~P2=>~P8
Gwarantowany zbiór:
3,5,7...
Zauważmy że zbiory A i B:
P8=>P2 # ~P2=>~P8
są fundamentalnie inne
Poza gwarancjami jest zbiór:
P2~~>~P8 = ~P8~~>P2
2,4,6..
Dlatego to jest implikacja a nie równoważność
Na podstawie powyższego mamy:
P8=>P2 # P2~>P8 = ~P2=>~P8
bo po obu stronach nierówności mamy fundamentalnie różne gwarancje.
Stąd po przywiązaniu p i q do lewej strony otrzymujemy:
p=>q # q~>p
gdzie:
p=P8, q=P2
CND
Wniosek:
Równanie rodem z KRZ:
p=>q = q~>p
jest matematycznie błędne, jeśli obie strony równania będziemy czytać zgodnie ze strzałką jako spójnik „musi” po lewej stronie i jako spójnik „może” po prawej stronie. Wyjaśnienie w dowodzie 2 i 3.
Dowód 2
Kod: |
Tabela A
p q p=>q q~>p
P8 P2 P8=>P2 P2~>P8
1 1 1 1
1 0 0 0
0 0 1 1
0 1 1 1
|
Pozornie zachodzi:
p=>q = q~>p
Kod: |
Tabela B
p q p~>q q=>p
P2 P8 P2~>P8 P8=>P2
1 1 1 1
1 0 1 1
0 0 1 1
0 1 0 0
|
Pozornie zachodzi:
p~>q = q=>p
Widać że:
Tabela A # Tabela B
zatem:
P8=>P2 # P8=>P2
P2~>P8 # P2~>P8
czyli:
A # A
Czyli algebra Boole’a leży w gruzach !
CND
Twierdzenie:
Wszelkie logiki formalne zapisujące p=>q = q~>p i p~>q = q=>p muszą być wewnętrznie sprzeczne
Dowód wyżej
Dowód 3
Rozwiązanie zagadki z dowodu 2
Kod: |
Tabela A
p q p=>q q~>p
P8 P2 P8=>P2 P2~>P8
p<~ q
P8<~ P2
1 1 1 1
1 0 0 0
0 0 1 1
0 1 1 1
|
Gdzie na mocy definicji implikacji prostej => mamy:
=> - spójnik „musi” z warunkiem wystarczającym
=> = <~ wtedy i tylko wtedy gdy spójnik <~ będzie czytany przeciwnie do strzałki jako spójnik „musi” z warunkiem wystarczającym
Kod: |
Tabela B
p q p~>q q=>p
P2 P8 P2~>P8 P8=>P2
p<=q
P2<=P8
1 1 1 1
1 0 1 1
0 0 1 1
0 1 0 0
|
Na mocy definicji implikacji odwrotnej ~> mamy:
~> - spójnik „może” z warunkiem koniecznym
~> = <= - wtedy i tylko wtedy gdy spójnik <= będzie czytany przeciwnie do strzałki jako spójnik „może” z warunkiem koniecznym
CND
Oczywiście na mocy powyższego ostatnie kolumny w obu tabelach można odciąć siekierą bo znaczą dokładnie to samo, czyli koniec końców mamy:
Kod: |
Tabela A
P8 P2 P8=>P2
1 1 1
1 0 0
0 0 1
0 1 1
|
=> - spójnik „musi” z warunkiem wystarczającym
Kod: |
Tabela B
P2 P8 P2~>P8
1 1 1
1 0 1
0 0 1
0 1 0
|
~> - spójnik „może” z warunkiem koniecznym
Wniosek końcowy:
P8=>P2 # P2~>P8
CND
Czyli po przywiązaniu na stałe p i q do lewej strony równania mamy:
p=P8, q=P2
p=>q # q~>p
CND
6.3 p=>q # q~>p dowód w bramkach logicznych
Niezwykła lekcja logiki w I klasie LO w stumilowym lesie.
Definicja implikacji prostej w równaniu algebry Boole’a:
p=>q = ~p+q
Jeśli zajdzie p to „musi” zajść q
p musi być wystarczające dla q
Na podstawie tej definicji łatwo konstruujemy bramkę implikacji prostej, którą jest bramka sumy logicznej OR z zanegowaną w środku linią p. W technice cyfrowej symbolem negacji jest kółko „O”.
Bramkowa definicja implikacji prostej:
Kod: |
p q
| |
-------
|O => |
| musi|
| OR |
-------
|
p=>q
|
Stojąc na przewodzie p, punkcie odniesienia, widzimy niezanegowaną linię q.
Definicja implikacji odwrotnej w równaniu algebry Boole’a:
p~>q = p+~q
Jeśli zajdzie p to „może” zajść q
p musi być konieczne dla q
Na podstawie tej definicji mamy bramkę implikacji odwrotnej którą jest bramka sumy logicznej OR z zanegowaną w środku linią q.
Bramkowa definicja implikacji odwrotnej:
Kod: |
p q
| |
-------
| ~> O|
| może|
| OR |
-------
|
p~>q
|
Stojąc na przewodzie p, punkcie odniesienia, widzimy zanegowaną linię q.
Jak widać z definicji, fizyczna realizacja bramek p=>q i p~>q jest identyczna, to bramka OR z zanegowaną w środku jedną linią. O tym czy będzie to bramka p=>q „musi” czy też fundamentalnie inna bramka p~>q „może” decyduje fakt z którego przewodu obserwujemy otaczającą nas rzeczywistość.
Kubuś:
Kto z Was na podstawie powyższych definicji narysuje bramkę q~>p
Jaś:
Na podstawie definicji implikacji odwrotnej ~> schemat tej bramki jest taki.
Kod: |
q p
| |
-------
| ~> O|
| może|
| OR |
-------
|
q~>p
|
Kubuś:
Bardzo dobrze, powiedz mi teraz czy istnieje możliwość połączenia bramek p=>q i q~>p w taki sposób aby te bramki były równoważne.
Jaś:
Trzeba przeanalizować wszystkie możliwe połączenia bramek p=>q i q~>p, których jest zaledwie dwa.
Sposób I
Kod: |
Schemat A
p q
| |
| x-------------------x
| | |
x-----|-------------x |
| | | |
|p |q |p |q
--------- ---------
|O => | |O <~ |
|musi | |musi |
|A | |B |
|OR | |OR |
--------- ---------
|Y |Y
| |
x---------x---------x
|
|
Y= p=>q = p<~q
|
p=>q = p<~q
=> = <~ - jeśli wektor <~ będzie czytany przeciwnie do strzałki jako spójnik „musi” z warunkiem wystarczającym
Oczywiście pewne jest że po zbudowaniu powyższego układu w laboratorium wszystko będzie doskonale działać
Uwaga:
Implikacja jest wektorem kierunkowym. Punktem odniesienia jest wyżej bramka „musi” => po lewej stronie. Stoimy twardo na przewodzie p w bramce p=>q i podłączmy bramkę q~>p na wszystkie możliwe sposoby, są tylko dwa, ten wyżej i niżej
Sposób II
Kod: |
Schemat B
p q
| |
| x-------------------x
| | |
x-----|-------------x |
| | | |
|p |q |q |p
--------- ---------
|O => | | ~> O|
|musi | |może |
|A | |B |
|OR | |OR |
--------- ---------
|Y |Y
| |
x---------x---------x
|
|
Y= p=>q # q~>p
|
Bezdyskusyjnie p=>q # q~>p.
Po włączeniu do sieci powyższego układu wszystko wyleci w powietrze, to absolutnie pewne, można sprawdzić doświadczalnie.
6.4 Układy zastępcze bramek logicznych
W poprzednim punkcie schemat B to totalna porażka, natomiast w schemacie A mamy do czynienia z jedną i tą sama bramką „musi” =>, żadna rewelacja. W ten sposób możemy sobie połączyć dowolną ilość bramek i wszystko będzie pięknie działało, nie o to chodzi w logice !
W logice chodzi o znalezienie najprostszego układu zastępczego zbudowanego z przeciwnego operatora:
Prawa de’Morgana:
p+q = ~(~p*~q) - zamiana bramki OR na AND
p*q = ~(~p+~q) - zamiana bramki AND na OR
Prawa Kubusia:
p=>q = ~p~>~q - zamiana bramki musi => na może ~>
p~>q = ~p=>~q - zamiana bramki może ~> na musi =>
Schemat zastępczy bramki OR wynikający z prawa de’Morgana wyżej.
Kod: |
Schemat A
p q
| |
| x-------------------x
| | |
x-----|-------------x |
| | | |
| | O O
--------- ---------
| | | |
| | | |
| OR | | AND |
--------- ---------
| O
| |
x---------x---------x
|
|
Y= p+q = ~(~p*~q)
|
Łatwo można zbudować powyższy układ logiczny I przekonać sie że wszystko doskonale działa niezależnie od sygnałów p I q na wejściu. Oczywiście w języku mówionym każdy człowiek wybierze formę p+q zamiast równoważnej ale skomplikowanej ~(~p*~q). Prawa de’Morgana są praktycznie nie używane w naturalnym języku mówionym, w przeciwieństwie do praw Kubusia używanych milion razy na dobę.
Kod: |
Schemat A
p q
| |
| x-------------------x
| | |
x-----|-------------x |
| | | |
| | O O
--------- ---------
|O => | | ~> O|
|musi | |może |
|A | |B |
|OR | |OR |
--------- ---------
|Y |Y
| |
x---------x---------x
|
|
Y= p=>q = ~p~>~q
|
Oczywiście tu również po zbudowaniu fizycznego układu jak wyżej wszystko będzie działało niezależnie od złożoności sygnałów na wejściu, zatem zdania wynikające z prawa Kubusia są równoważne. Praw Kubusia każdy człowiek od 5-cio latka po starca używa milion razy na dobę.
6.5 p=>q # q~>p dowód w równaniach algebry Boole’a
Definicja implikacji prostej w równaniu algebry Boole’a:
p=>q = ~p+q
Jeśli zajdzie p to „musi” zajść q
p musi być wystarczające dla q
Na podstawie tej definicji łatwo konstruujemy bramkę implikacji prostej, którą jest bramka sumy logicznej OR z zanegowaną w środku linią p. W technice cyfrowej symbolem negacji jest kółko „O”.
Bramkowa definicja implikacji prostej:
Kod: |
p q
| |
-------
|O => |
| musi|
| OR |
-------
|
p=>q
|
Stojąc na przewodzie p, punkcie odniesienia, widzimy niezanegowaną linię q.
Definicja implikacji odwrotnej w równaniu algebry Boole’a:
p~>q = p+~q
Jeśli zajdzie p to „może” zajść q
p musi być konieczne dla q
Na podstawie tej definicji mamy bramkę implikacji odwrotnej którą jest bramka sumy logicznej OR z zanegowaną w środku linią q.
Bramkowa definicja implikacji odwrotnej:
Kod: |
p q
| |
-------
| ~> O|
| może|
| OR |
-------
|
p~>q
|
Stojąc na przewodzie p, punkcie odniesienia, widzimy zanegowaną linię q.
Jak widać z definicji, fizyczna realizacja bramek p=>q i p~>q jest identyczna, to bramka OR z zanegowaną w środku jedną linią. O tym czy będzie to bramka p=>q „musi” czy też fundamentalnie inna bramka p~>q „może” decyduje fakt z którego przewodu obserwujemy otaczającą nas rzeczywistość.
Oczywiście widać jak na dłoni, że bardzo łatwo zamienić fizyczną bramkę „musi” => na fizyczną bramkę „może” ~>, wystarczy zamienić kabelki na wejściu p i q. Zauważmy jednak że w definicjach p=>q i p~>q nie chodzi o realizację fizyczną bramki bo ta jest identyczna, to bramka OR z zanegowaną jedną linia na wejściu, ale o fundamentalny w tym wszystkim punkt odniesienia z którego obserwujemy fizyczną rzeczywistość.
Błędem jest zatem przyjmowanie za punkt odniesienia fizycznej bramki logicznej i taki zapis:
1.
p=>q = q~>p
z uzasadnieniem bo to jest jedna i ta sama fizyczna bramka logiczna.
Owszem jest ale w tym przypadku zachodzi:
2.
p~>q = q~>p
gdzie prawa strona to p i q wzięte z równania p=>q (1) !
Czyli rozwaliliśmy algebrę Boole’a bo mamy:
p=>q = p~>q
co jest sprzeczne z definicjami p=>q i p~>q bowiem na mocy tych definicji musi być:
p=>q # p~>q
Podobnie błędny jest zapis:
3.
p~>q = q=>p
z uzasadnieniem bo to jest ta sama fizyczna bramka logiczna
Owszem jest ale w tym przypadku zachodzi:
4.
p=>q = q=>p
gdzie prawa strona to p i q wzięte z równania p~>q (3) !
Czyli rozwaliliśmy algebrę Boole’a bo mamy:
p~>q = p=>q
co jest sprzeczne z definicjami p~>q i p=>q bowiem na mocy tych definicji musi być:
p~>q # p=>q
Wniosek:
W implikacji błędem jest przyjmowanie za punkt odniesienia fizycznej bramki logicznej bo nie ona jest istotna w definicji implikacji ale punkt odniesienia z którego obserwujemy otaczającą nas rzeczywistość.
6.6 Punkt odniesienia w implikacji
Punkt odniesienia w implikacji
W implikacji stały punkt odniesienia z którego obserwujemy fizyczną rzeczywistość ustawiony jest zawsze na poprzedniku p, czyli po „Jeśli…” mamy zawsze p, zaś po „to…” mamy zawsze q.
Wypowiadam zdanie:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2 =1
p=>q
P8 wystarcza dla P2, zatem implikacja prosta prawdziwa
Wypowiadam zupełnie inne zdanie:
B.
Jeśli liczba jest podzielna przez 2 to może być podzielna przez 8
P2~>P8 =1
p~>q
P2 jest konieczne dla P8, zatem jest to implikacja odwrotna prawdziwa
Oczywiście na mocy definicji zachodzi:
p=>q # p~>q
czyli:
P8=>P2 # P2~>P8
Pewne jest że matematycy będą tu kręcić nosami bowiem parametry formalne p i q mają różne wartości aktualne.
Lewa strona:
p=P8, q=P2
Prawa strona:
p=P2, q=P8
Zauważmy jednak że A i B to dwa niezależne zdania, nie wolno za punkt odniesienia przyjmować zdania A albo B bo to prowadzi do sprzeczności z definicjami p=>q i p~>q co pokazano wyżej.
Na podstawie powyższego mamy:
P8=>P2 # P2~>P8 = ~P2=>~P8
bo prawo Kubusia:
p~>q = ~p=>~q
stąd:
P8=>P2 # ~P2=>~P8
czyli:
Prawo kontrapozycji jest w implikacji fałszywe
CND
6.7 Najważniejsze prawa w historii logiki
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” => zajść q
p musi być warunkiem wystarczającym dla q
=> - operator implikacji prostej, spójnik „musi” ze spełnionym warunkiem wystarczającym
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Spójniki zdaniowe
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Prawa Kubusia:
p=>q = ~p~>~q - prawo zamiany operatora implikacji prostej => na odwrotną ~>
p~>q = ~p=>~q - prawo zamiany operatora implikacji odwrotnej ~> na prostą =>
Logika dodatnia i ujemna dla operatorów implikacji prostej => i odwrotnej ~>:
Implikacja wypowiedziana jest w logice dodatniej jeśli po stronie q nie występuje negacja, inaczej mamy do czynienia z logiką ujemną (patrz prawa Kubusia).
Z praw Kubusia wynika, że implikacja prosta => w logice dodatniej jest równoważna implikacji odwrotnej ~> w logice ujemnej i odwrotnie, czyli implikacja odwrotna ~> w logice dodatniej jest równoważna implikacji prostej => w logice ujemnej.
Prawo Sowy I
Dowolna implikacja prawdziwa może być tylko i wyłącznie implikacją prostą p=>q prawdziwą , albo implikacją odwrotną p~>q prawdziwą, nie ma więcej możliwości matematycznych.
Prawo Sowy II
Implikacja prosta prawdziwa p=>q po zamianie argumentów przechodzi w implikację odwrotną prawdziwą p~>q, albo odwrotnie.
Oczywiście na mocy definicji zachodzi:
p=>q # p~>q
Prawa kontrapozycji w implikacji
p=>q # ~q=>~p - zapis dla punktu odniesienia p=>q
p~>q # ~q~>~p - zapis dla punktu odniesienia p~>q
W prawach kontrapozycji w implikacji negujemy argumenty i zamieniamy je miejscami bez zmiany operatora. W prawie kontrapozycji w implikacji jeśli prawdziwa jest którakolwiek strona nierówności to musi być prawdziwa druga strona nierówności. Oczywiście na mocy praw Kubusia i II prawa Sowy implikacje te nie są równoważne mimo że prawdziwe, bo to dwa izolowane układy implikacyjne pomiędzy którymi nie zachodzą żadne zależności matematyczne.
6.7.1 Prawo Sowy I
Prawo Sowy I
Dowolna implikacja prawdziwa może być tylko i wyłącznie implikacją prostą p=>q prawdziwą , albo implikacją odwrotną p~>q prawdziwą, nie ma więcej możliwości matematycznych.
Dowód:
Najprostszy dowód wynika bezpośrednio z bramkowych definicji implikacji prostej => i odwrotnej ~>.
Definicja implikacji prostej w równaniu algebry Boole’a:
p=>q = ~p+q
Jeśli zajdzie p to „musi” zajść q
p musi być wystarczające dla q
Na podstawie tej definicji łatwo konstruujemy bramkę implikacji prostej, którą jest bramka sumy logicznej OR z zanegowaną w środku linią p. W technice cyfrowej symbolem negacji jest kółko „O”.
Bramkowa definicja implikacji prostej:
Kod: |
Bramka A =>
Miernik implikacji prostej
p=> q
| |
-------
|O => |
| musi|
| OR |
-------
|
p=>q
|
Stojąc na przewodzie p, punkcie odniesienia, widzimy niezanegowaną linię q.
Definicja implikacji odwrotnej w równaniu algebry Boole’a:
p~>q = p+~q
Jeśli zajdzie p to „może” zajść q
p musi być konieczne dla q
Na podstawie tej definicji mamy bramkę implikacji odwrotnej którą jest bramka sumy logicznej OR z zanegowaną w środku linią q.
Bramkowa definicja implikacji odwrotnej:
Kod: |
Bramka B ~>
Miernik implikacji odwrotnej
p~> q
| |
-------
| ~> O|
| może|
| OR |
-------
|
p~>q
|
Stojąc na przewodzie p, punkcie odniesienia, widzimy zanegowaną linię q.
Dowolną implikacje rzeczywistą prawdziwą możemy przyporządkować wyłącznie do bramki A => albo do bramki B ~>. Na tej podstawie tworzymy zapis ogólny zdania którym może być tylko i wyłącznie p=>q albo p~>q.
Przykład implikacji prostej w logice dodatniej p=>q:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2
P8 jest wystarczające dla P2 zatem jest to implikacja prosta prawdziwa pasująca do bramki A o zapisie ogólnym:
p=>q - logika dodatnia bo q nie jest zanegowane
p jest wystarczające dla q
… a jeśli liczba nie jest podzielna przez 8 ?
Prawo Kubusia:
P8=>P2 = ~P8~>~P2
czyli:
B.
Jeśli liczba nie jest podzielna przez 8 to może ~> być niepodzielna przez 2
~P8~>~P2
Z prawa Kubusia wynika że P8 musi być konieczne dla P2, zatem implikacja odwrotna prawdziwa.
Oczywiście to zdanie pasuje do bramki B, zatem jego zapis ogólny jest taki:
~p~>~q - logika ujemna bo q jest zanegowane
~p jest konieczne dla ~q
Przykład implikacji odwrotnej w logice dodatniej p~>q:
C.
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8
P2 jest konieczne dla P8, zatem implikacja prosta prawdziwa pasująca do bramki B o zapisie ogólnym:
p~>q - logika dodatnia bo q niezanegowane
p jest konieczne dla q
… a jeśli liczba nie jest podzielna przez 2 ?
Prawo Kubusia:
P2~>P8 = ~P2=>~P8
D.
Jeśli liczna nie jest podzielna przez 2 to na pewno nie jest podzielna przez 8
~P2=>~P8
~P2 wystarcza dla ~P8, zatem implikacja prosta prawdziwa pasująca do bramki A o zapisie ogólnym:
~p=>~q - logika ujemna bo q zanegowane
~p wystarcza dla ~q
Bajecznie proste, zgadza się ?
Zauważmy, że na podstawie prawa Kubusia mamy wyżej:
A.
P8=>P2 = ~P8~>~P2
p=>q = ~p=>~q
czyli dla lewej strony mamy:
p=P8, q=P2
zaś dla prawej strony mamy:
p=P8, q=P2
Matematycznie w tożsamości jest zatem wszystko w porządku
To samo dla drugiego prawa Kubusia wyżej:
C.
P2~>P8 = ~P2=>~P8
p~>q = ~p=>~q
dla lewej strony mamy:
p=P2, q=P8
natomiast dla prawej strony mamy:
p=P2, q=P8
także matematycznie wszystko w porządku.
Zdania A=B i C=D to dwa niezależne układy implikacyjne pomiędzy którymi nie zachodzą żadne związki matematyczne. Parametry formalne p i q w zdaniu A są bez matematycznego związku z parametrami formalnymi p i q zdania C.
Taki fałszywy związek tworzy tu KRZ swoimi równaniami:
p=>q = q~>p
p~>q = q=>p
To co wyżej to fałsz absolutny, to twierdzenie że 2+2=5, co bez przerwy tu dowodzimy.
6.7.2 Prawo Sowy II
Prawo Sowy II
Implikacja prosta prawdziwa p=>q po zamianie argumentów przechodzi w implikację odwrotną prawdziwą p~>q, albo odwrotnie.
Oczywiście na mocy definicji zachodzi:
p=>q # p~>q
W implikacjach bezczasowych (matematyka) oraz w implikacjach ze świata przyrody martwej i żywej oba zdania p=>q i p~>q będą sensowne, ale matematycznie nie równoważne na mocy definicji p=>q i p~>q.
W implikacjach czasowych typu człowiek-człowiek (obietnice i groźby), przyroda martwa-człowiek jedna z implikacji będzie sensowna w czasie przyszłym, natomiast druga w czasie przeszłym.
Oczywiście z praw Kubusia i prawa Sowy II wynikają poniższe prawa kontrapozycji poprawne w implikacji.
p=>q # ~q=>~p
p~>q # ~q~>~p
Po obu stronach będziemy mieć zdania prawdziwe, ale matematycznie nie równoważne.
6.8 Prawa Sowy w praktyce
Przeanalizujmy kilka implikacji prawdziwych ze świata matematyki oraz przyrody martwej i żywej pod kątem praw Sowy.
6.8.1 Świat matematyki
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2
p=>q
P8 wystarcza dla P2, zatem implikacja prosta prawdziwa
Jeśli zamienimy p i q i wymienimy operatora na przeciwny to musimy wylądować w implikacji odwrotnej prawdziwej.
B.
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8
p~>q
Nie musimy tu dowodzić warunku koniecznego bo zachodzi na mocy prawa Sowy II.
Zauważmy, że matematycznie zachodzi:
p=>q # p~>q
czyli w naszym przykładzie:
P8=>P2 # P2~>P8
zauważmy że dla lewej strony mamy:
p=P8, q=P2
natomiast dla prawej strony mamy:
p=P2, q=P8
Oczywiście gdyby tu była tożsamość jak w prawie Kubusia to mielibyśmy matematyczny idiotyzm, ale nie jest !
Lewa i prawa strona nierówności to dwa izolowane układy implikacyjne pomiędzy którymi nie zachodzą żadne zależności matematyczne.
Oczywiście prawo Sowy II zachodzi dla dowolnych p i q czyli …
C.
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8
~p=>~q
~P2 wystarcza dla ~P8 zatem implikacja prosta prawdziwa
Na mocy prawa Sowy II mamy gwarantowaną implikację odwrotną prawdziwą, ale nie równoważną matematycznie.
~p=>~q # ~p~>~q
czyli:
~P2=>~P8 # ~P8~>~P2
D.
Jeśli liczba nie jest podzielna przez 8 to może być niepodzielna przez 2
~P8~>~P2
Oczywiście tu również nie musimy sprawdzać warunku koniecznego między ~P8~>~P2 bo gwarantuje go prawo Sowy II.
6.8.2 Przyroda martwa
A.
Jeśli jutro będzie padało to na pewno będzie pochmurno
P=>CH
Padanie jest warunkiem wystarczającym dla istnienia chmur, zatem implikacja prosta prawdziwa
Uwaga !
Na mocy praw Kubusia i praw Sowy nie musimy bawić się w analizowanie czy zachodzą warunki wystarczające/konieczne w implikacjach wynikających z tych praw, bo na pewno takowe zachodzą.
… a jeśli nie będzie padać ?
Prawo Kubusia:
P=>CH = ~P~>~CH
B.
Jeśli jutro nie będzie padać to może nie być pochmurno
~P~>~CH
Na mocy prawa Sowy II mamy:
P=>CH # CH~>P
C.
Jeśli jutro będzie pochmurno to może padać
CH~>P
… a jeśli jutro nie będzie pochmurno ?
Prawo Kubusia:
CH~>P = ~CH=>~P
D.
Jeśli juro nie będzie pochmurno to na pewno => nie będzie padać
~CH=>~P
Prawo Sowy II:
~CH=>~P # ~P~>~CH
czyli:
D # B
6.8.3 Przyroda żywa
A.
Jeśli zwierzę ma cztery łapy to może być psem
4L~>P
Cztery łapy są konieczne aby być psem zatem implikacja odwrotna prawdziwa
Uwaga !
Na mocy praw Kubusia i praw Sowy nie musimy bawić się w analizowanie czy zachodzą warunki wystarczające/konieczne w implikacjach wynikających z tych praw, bo na pewno zachodzą.
… a jeśli zwierze nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
B.
Jeśli zwierze nie ma czterech łap to na pewno nie jest psem
~4L=>~P
Prawo Sowy dla A:
4L~>P = P=>4L
czyli:
C.
Jeśli zwierzę jest psem to na pewno ma cztery łapy
P=>4L
… a jeśli zwierzę nie jest psem ?
Prawo Kubusia:
P=>4L= ~P~>~4L
D.
Jeśli zwierze nie jest psem to może to może nie mieć czterech łap
~P~>~4L
Prawo Sowy dla zdania D:
~P~>~4L # ~4L=>~P
czyli:
D # B
6.8.4 Przyroda martwa - człowiek
A.
Jeśli będzie padało to otworzę parasol
P=>OP
Padanie deszczu jest warunkiem wystarczającym abym otworzył parasol, implikacja prosta prawdziwa
… a jeśli nie będzie padało ?
Prawo Kubusia:
P=>OP = ~P~>~OP
B.
Jeśli nie będzie padało to mogę nie otworzyć parasola
~P~>~OP
Prawo Sowy dla B:
~P~>~OP = ~OP=>~P
czyli:
C1.
Jeśli nie otworzę parasola to na pewno => nie będzie padało
~OP=>~P
… oczywisty idiotyzm w czasie przyszłym, ale to zdanie będzie sensowne w czasie przeszłym bo tu implikacja już zaszła i wszystko jest zdeterminowane.
C.
Jeśli nie otworzyłem parasola to na pewno => nie padało
~OP=>~P
… a jeśli otworzyłem parasol ?
Prawo Kubusia:
~OP=>~P = OP~>P
D.
Jeśli otworzyłem parasol to mogło padać
OP~>P
LUB
Jeśli otworzyłem parasol to mogło nie padać
OP~~>~P
Na przykład osłona przed upałem.
Prawo Sowy dla D:
OP~>P # P=>OP
czyli:
D # A
6.8.5 Obietnica
Oczywiście będzie to najciekawsza obietnica w relacji człowiek-człowiek, a nie jak wyżej człowiek-przyroda martwa.
Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N
Implikacja prosta bo dobrowolnych obietnic musimy dotrzymywać.
A.
Jeśli zdasz egzamin dostaniesz komputer
E=>K =1
1 1 =1
Zdanie egzaminu jest warunkiem wystarczającym dla otrzymania komputera, zatem implikacja prosta prawdziwa.
stąd:
B.
Jeśli zdasz egzamin to na pewno => nie dostaniesz komputera
E=>~K=0
1 0 =0
… a jeśli nie zdam egzaminu ?
Prawo Kubusia:
E=>K = ~E~>~K
C.
Jeśli nie zdasz egzaminu to możesz ~> nie dostać komputera
~E~>~K =1
0 0 =1
LUB
D.
Jeśli nie zdasz egzaminu to możesz dostać komputer
~E~~>K =1
0 1 =1
Doskonale widać zero-jedynkową definicje implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
E=1, ~E=0
K=1, ~K=0
Zauważmy, że zdanie C to ewidentna groźba.
Wniosek
Na mocy praw Kubusia które nigdy nie mogą być zgwałcone wszelkie groźby musimy kodować operatorem implikacji odwrotnej. Kodowanie gróźb implikacja prostą, jak to robi współczesna logika jest czysto matematycznym błędem !
Zastosujmy prawo Sowy II dla zdania A.
E=>K # K~>E
czyli:
Jeśli dostaniesz komputer to możesz zdać egzamin
K~>E
Oczywiście w czasie przyszłym to zdanie jest bez sensu, ale w czasie przeszłym gdzie wszystko jest zdeterminowane będzie jak najbardziej sensowne czyli …
A1.
Jeśli dostałeś komputer to mogłeś zdać egzamin
K~>E =1
1 1 =1
LUB
B1.
Jeśli dostałeś komputer to mogłeś nie zdać egzaminu
K~~>~E =1
1 0 =1
… a jeśli nie dostałem komputera ?
Prawo Kubusia:
K~>E = ~K=>~E
C1.
Jeśli nie dostałeś komputera to na pewno => nie zdałeś egzaminu
~K=>~E =1
0 0 =1
stąd:
D1.
Jeśli nie dostałeś komputera to na pewno => zdałeś egzamin
~K=>E =0
0 1 =0
Doskonale widać definicję zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
K=1, ~K=0
E=1, ~E=0
Prawo Sowy II dla zdania C1:
~K=>~E # ~E~>~K
czyli z powyższej analizy:
C1 # C
6.8.6 Groźba
Zauważmy, że przy okazji analizy obietnicy która jest prawidłowo kodowana przez współczesną logikę implikacja prostą => odkryliśmy tragiczną dla dzisiejszej logiki prawdę, że wszelkie groźby muszą być kodowane implikacją odwrotną =>, inaczej świętość algebry Boole’a, prawo Kubusia poprawne w NTI i KRZ (sic !) jest gwałcone. Człowiek nie jest w stanie tego dokonać podobnie jak nie jest w stanie zgwałcić choćby praw Kirchhoffa.
Definicja groźby:
Jeśli dowolny warunek to kara
W~>K
Spełnienie warunku groźby jest warunkiem koniecznym do ukarania, o tym czy będzie to warunek konieczny i wystarczający decyduje nadawca
A.
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L =1
1 1 =1
Na mocy definicji implikacja odwrotna ~>
W groźbach spójnik „może” ~> z warunkiem koniecznym jest prawie zawsze pomijany, bowiem intencją nadawcy jest aby warunek groźby nie został spełniony. Oczywiście im ostrzej wypowiedziana groźba tym mniejsze prawdopodobieństwo spełnienia warunku groźby przez odbiorcę. Na mocy definicji groźby zawsze to będzie implikacja odwrotna, nawet jeśli nadawca ubierze ją w piórka równoważności.
LUB
B.
Jeśli ubrudzisz spodnie to możesz nie dostać lania
B~~>L =1
1 1 =1
Prawo do darowania dowolnej kary (akt łaski)
… a jeśli nie ubrudzę spodni ?
Prawo Kubusia:
B~>L = ~B=>~L
C.
Jeśli nie ubrudzisz spodni to na pewno => nie dostaniesz lania
~B=>~L =1
0 0 =1
… z powodu czystych spodni, tylko tyle i aż tyle gwarantuje operator implikacji odwrotnej B~>L.
D.
Jeśli nie ubrudzisz spodni to na pewno => dostaniesz lanie
~B=>L=0
0 1 =0
Doskonale widać tabelę zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1
Korzystając z prawa Sowy II mamy:
B~>L = L=>B
stąd:
Jeśli dostaniesz lanie to na pewno ubrudzisz spodnie
L=>B
Oczywiście zamiana przyczyny ze skutkiem jest tu bezsensowna. Zdanie to będzie sensowne w czasie przeszłym gdzie wszystko jest zdeterminowane.
A1.
Jeśli dostałeś lanie to na pewno ubrudziłeś spodnie
L=>B =1
1 1 =1
stąd:
B1.
Jeśli dostałeś lanie to na pewno nie ubrudziłeś spodni
L=>~B =0
1 0 =0
… a jeśli nie dostałem lania ?
Prawo Kubusia:
L=>B = ~L~>~B
C1.
Jeśli nie dostałeś lania to mogłeś nie ubrudzić spodni
~L~>~B =1
0 0 =1
LUB
Jeśli nie dostałeś lania to mogłeś ubrudzić spodnie
~L~~>B =1
0 1 =1
Doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
L=1, ~L=0
B=1, ~B=0
Prawo Sowy II dla zdania C1:
~L~>~B # ~B=> ~L
czyli:
C1 # C
6.8.7 Prawa kontrapozycji w implikacji
Prawa kontrapozycji w implikacji:
p=>q # ~q=>~p - dla punktu odniesienia p=>q
p~>q # ~q~>~p - dla punktu odniesienia p~>q
W prawach kontrapozycji w implikacji negujemy argumenty i zamieniamy je miejscami bez zmiany operatora.
W prawie kontrapozycji w implikacji jeśli prawdziwa jest którakolwiek strona nierówności to musi być prawdziwa druga strona nierówności. Oczywiście na mocy praw Kubusia i II prawa Sowy implikacje te nie są równoważne mimo że prawdziwe, bo to dwa izolowane układy implikacyjne pomiędzy którymi nie zachodzą żadne zależności matematyczne.
Przykład:
A.
Jeśli zwierzę jest psem to na pewno => ma cztery łapy
P=>4L
Bycie psem wystarcza aby mieć cztery łapy, implikacja prosta prawdziwa
Prawo kontrapozycji:
P=>4L # ~4L=>~P
B.
Jeśli zwierzę nie ma czterech łap to na pewno => nie jest psem
~4L=>~P
C.
Jeśli zwierzę ma cztery łapy to może ~> być psem
4L~>P
Cztery łapy są konieczne aby być psem, implikacja odwrotna prawdziwa
Prawo kontrapozycji:
4L~>P = ~P~>~4L
D.
Jeśli zwierze nie jest psem to może ~> nie mieć czterech łap
~P~>~4L
Jest oczywistym, że każdy człowiek od 5-cio latka po starca doskonale posługuje się w praktyce prawami Kubusia, prawami Sowy i prawami kontrapozycji.
CND
Ciąg dalszy na kolejnej stronie …
|
|
Powrót do góry |
|
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35367
Przeczytał: 20 tematów
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Czw 22:32, 18 Mar 2010 Temat postu: |
|
|
6.8.8 p=>q # q~>p kropka nad „i”
W NTI słowna analiza zdań spełniających prawa Kubusia jest identyczna co do każdej literki i każdego przecinka. Dlatego prawa Kubusia są bezdyskusyjne.
Prawa Kubusia:
p=>q = ~p~>~q
p~>q = ~p=>~q
Nie ma tego w prawach Sowy i prawach kontrapozycji dlatego tu mamy znak nierówności między lewą i prawa stroną:
Prawo Sowy II:
p=>q # p~>q
na mocy definicji implikacji prostej => i odwrotnej ~>
Prawa kontrapozycji w implikacji:
p=>q = ~q=>~p - zapisane dla punktu odniesienia p=>q
p~>q = ~q~>~p - zapisane dla punktu odniesienia p~>q
Twierdzenie:
Słowna analiza implikacji wynikających z praw Kubusia jest identyczna co do każdej literki i każdego przecinka.
Dowód formalny:
Definicja operatorowa implikacji prostej:
Kod: |
Tabela A
p=>q =1
p=>~q =0
~p~>~q=1
~p~~>q=1
|
Definicja operatorowa implikacji odwrotnej:
Kod: |
Tabela B
p~>q =1
p~~>~q=1
~p=>~q=1
~p=>q =0
|
Prawo Kubusia:
p=>q = ~p~>~q
Zatem do operatorowej definicji implikacji odwrotnej wprowadzamy zanegowane parametry formalne.
Kod: |
Tabela C
(~p)~>(~q) =1
(~p)~~>~(~q)=1
~(~p)=>~(~q)=1
~(~p)=>(~q) =0
|
Opuszczamy nawiasy korzystając z prawa podwójnego przeczenia:
p=~(~p)
formalne.
Kod: |
Tabela D
~p~>~q=1
~p~~>q=1
p=>q =1
p=>~q =0
|
Zamieniamy dwie pierwsze linie z dwoma ostatnimi, wolno nam bo kolejność wypowiadania zdań wynikłych z definicji implikacji nie ma żadnego znaczenia, tu nawet 5-cio letnie dziecko nie będzie miało problemu.
Kod: |
Tabela E
p=>q =1
p=>~q =0
~p~>~q=1
~p~~>q=1
|
Jak widzimy tabele formalne A i E są identyczne, zatem analiza zdań wynikła z prawa Kubusia musi być identyczna co do każdej literki i każdego przecinka.
W przykładzie niżej uwalniamy się od idiotycznych zer i jedynek, analiza symboliczna implikacji tak właśnie powinna wyglądać.
Przykład:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2 =1 bo 8,16,24…
stąd:
B.
Jeśli liczba jest podzielna przez 8 to na pewno => nie jest podzielna przez 2
P8=>~P2=0 - nie ma takiej liczby
… a jeśli liczba nie jest podzielna przez 2
Prawo Kubusia:
P8=>P2 = ~P8~>~P2
stąd:
C.
Jeśli liczba nie jest podzielna przez 8 to może ~> nie być podzielna przez 2
~P8~>~P2 =1 bo 3,5,7…
LUB
D.
Jeśli liczba nie jest podzielna przez 8 to może ~~> być podzielna przez 2
~P8~~>P2 =1 bo 2,4,6…
Sprawdzenie poprawności powyższych przekształceń formalnych na przykładzie wyże.
Prawo Kubusia:
P8=>P2 = ~P8~>~P2
Definicja operatorowa implikacji prostej dla parametrów aktualnych P8=>P2:
Kod: |
Tabela A
P8=>P2 =1
P8=>~P2 =0
~P8~>~P2=1
~P8~~>P2=1
|
Analizę słowna powyższej tabeli mamy wyżej.
Z prawa Kubusia wynika że do operatorowej definicji implikacji odwrotnej musimy wprowadzić:
~P8~>~P2
czyli:
p=~P8
q=~P2
Definicja operatorowa implikacji odwrotnej dla parametrów aktualnych ~P8 i ~P2:
Kod: |
Tabela B
(~P8)~>(~P2) =1
(~P8)~~>~(~P2)=1
~(~P8)=>~(~P2)=1
~(~P8)=>(~P2) =0
|
Korzystając z prawa podwójnego przeczenia opuszczamy nawiasy:
Kod: |
Tabela C
~P8~>~P2=1
~P8~~>P2=1
P8=>P2 =1
P8=>~P2 =0
|
Zamieniamy teraz dwie pierwsze linie z dwoma ostatnimi.
Kod: |
Tabela D
P8=>P2 =1
P8=>~P2 =0
~P8~>~P2=1
~P8~~>P2=1
|
Jak widać tabela D jest identyczna jak tabela A, zatem analiza słowna musi być identyczna, mamy ją wyże, nie musimy zmieniać ani jednej literki, ani jednego przecinka.
CND
6.9 Salomonowy wyrok
Kubuś twierdzi że:
A.
p=>q #q~>p - poprawne wyłącznie w NTI
Zdanie q~>p zapisane jest dla p i q wziętych ze zdania p=>q
Przykład:
P8=>P2 # P2~>P8
oraz że:
B.
p=>q # p~>q - na mocy definicji poprawne w NTI i KRZ
Zdanie p~>q potraktowane jest tu jako niezależnie wypowiedziane zdanie gdzie p i q także można wziąć ze zdania p=>q. KRZ które tego zabrania jest bez sensu.
Ten sam przykład:
P8=>P2 # P2~>P8
Po zapisaniu praw Kubusia poprawnych w KRZ i NTI mamy:
p=>q = ~p~>~q # p~>q = ~p=>~q - poprawne w KRZ i NTI
KRZ twierdzi że:
C.
p=>q = q~>p - poprawne wyłącznie w KRZ
Zdanie q~>p zapisane jest dla p i q wziętych ze zdania p=>q
Przykład:
P8=>P2 = P2~>P8
oraz że:
D.
p=>q # p~>q - poprawne w KRZ i NTI
Zdanie p~>q potraktowane jest tu jako niezależnie wypowiedziane zdanie gdzie p i q także można wziąć ze zdania p=>q. KRZ które tego zabrania jest bez sensu.
Ten sam przykład:
P8=>P2 # P2~>P8
Z powyższego wynika że:
q~>p i p~>q będą fizycznie jednym i tym samym zdaniem. Oczywiście definicja ma tu większa moc i dowodzi fałszywości równania p=>q = q~>p rodem z KRZ.
Po zapisaniu praw Kubusia dla C mamy:
p=>q = ~p~>~q = q~>p = ~q=>~p - poprawne wyłącznie w KRZ
Po zapisaniu praw Kubusia dla D mamy:
p=>q = ~p~>~q # p~>q = ~p=>~q - poprawne w KRZ i NTI
… nie trzeba być wybitnym matematykiem aby nie wyczuć że coś tu śmierdzi.
Równanie C obalono w punktach wyżej na około 10 różnych sposobów. Kubuś zdaje sobie jednak sprawę z faktu, że na gruncie KRZ każdy głupi udowodni to równanie tabelą zero-jedynkową. Problem w tym że KRZ nie ma pojęcia o logice dodatniej i ujemnej w algebrze Boole’a, tylko dlatego dowód w KRZ jest „poprawny”.
Salomonowy wyrok:
Dla NTI jest totalnie bez znaczenia czy zachodzi równanie A czy C bo NTI w ogóle z tego nie korzysta. NTI jest na 100% poprawna matematycznie i zgodna z naturalną logiką człowieka, a fakt czy zachodzi równanie A czy C jest bez znaczenia.
Oczywiście wszystko rozbija się o pojęcie logiki dodatniej i ujemnej, nieznanej współczesnej matematyce.
W technice cyfrowej mamy tak:
1.
Argumenty w implikacji nie są przemienne
2.
Z tego powodu musimy ustalić stały punkt odniesienia z którego obserwujemy fizyczną rzeczywistość
3.
W NTI ten stały punkt odniesienia jest taki:
W dowolnej implikacji po „Jeśli…” mamy zawsze parametr formalny p, zaś po „to..” mamy zawsze q
Na podstawie powyższego mamy:
p=>q # q~>p
Zdanie po prawej stronie brzmi:
q~>p
Jeśli zajdzie q to może zajść p
Zgodnie z pkt.3 wyżej to zdanie jest równoważne:
p~>q - to jest definicja implikacji odwrotnej
Jeśli zajdzie p to może zajść q
Na mocy definicji mamy:
p=>q # p~>q - poprawne w NTI i KRZ
Kolejny dowód:
W powyższej nierówności mamy po obu stronach zdania prawdziwe, ale nie równoważne !
Jaki jest sensowny przykład dla tego przypadku ?
Oczywiście jedyny sensowny przykład to:
P8=>P2 # P2~>P8
Bezsensowne przykłady to branie p i q z zupełnie innej bajki np.
P8=>P2 # P4~>P16
Jeśli zwierzę ma cztery łapy to może być psem
P8=>P2 # 4L~>P
Istota sporu z punktu odniesienia NTI
Równanie ogólne implikacji poprawne w KRZ i NTI:
p=>q # p~>q - na mocy definicji
stąd po skorzystaniu z praw Kubusia poprawnych w KRZ i NTI mamy:
p=>q = ~p~>~q # p~>q = ~p=>~q
To co wyżej jest bezdyskusyjne w KRZ i NTI.
Dalej wszystko rozbija się o definicje implikacji w NTI, które są fundamentalnie inne od wszelkich definicji implikacji znanych człowiekowi. Oczywiście nie chodzi tu o definicje zero-jedynkowe bo te są wspólne dla absolutnie wszystkich ludzi na świecie, ale o fundamentalnie różną interpretację tych zer i jedynek.
Definicja implikacji prostej w NTI:
p=>q
Jeśli zajdzie p to musi zajść q
p musi być wystarczające dla q
Definicja implikacji odwrotnej w NTI:
p~>q
Jeśli zajdzie p to może zajść q
p musi być konieczne dla q
Przykład:
Zdanie A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2
p=>q
P8 wystarcza dla P2, zatem implikacja prosta prawdziwa
Prawo Kubusia:
p=>q = ~p~>~q
P8=>P2 = ~P8~>~P2
Wszędzie mamy:
p=P8, q=P2 - czyli ok
Zdanie B.
Jeśli liczba jest podzielna przez 2 to jest podzielna przez 8
P2~>P8
p~>q
P2 jest konieczne dla P8, zatem implikacja odwrotna prawdziwa
Prawo Kubusia:
P2~>P8 = ~P2=>~P8
Wszędzie mamy:
p=P2, q=P8 - czyli ok.
Równanie ogólne implikacji poprawne w KRZ i NTI.
p=>q = ~p~>~q # p~>q = ~p=>~q - poprawne w KRZ i NTI
Po podstawieniu parametrów aktualnych z powyższego przykładu A i B mamy:
P8=>P2 = ~P8~>~P2 # P2~>P8=~P2=>~P8
Prawa kontrapozycji w implikacji w NTI
p=>q # ~q=>~p - zapis dla punktu odniesienia p=>q
p~>q # ~q~>~p - zapis dla punktu odniesienia p~>q
W prawach kontrapozycji w implikacji negujemy argumenty i zamieniamy je miejscami bez zmiany operatora. W prawie kontrapozycji w implikacji jeśli prawdziwa jest którakolwiek strona nierówności to musi być prawdziwa druga strona nierówności. Oczywiście na mocy praw Kubusia i II prawa Sowy implikacje te nie są równoważne mimo że prawdziwe, bo to dwa izolowane układy implikacyjne pomiędzy którymi nie zachodzą żadne zależności matematyczne.
Nowa Teoria Implikacji
Prawo kontrapozycji w NTI dla naszego przykładu:
P8=>P2 # ~P2=>~P8
Wniosek:
Prawdziwość zdania po jednej stronie wymusza prawdziwość zdania po drugiej stronie. Oba zdania są prawdziwe ale matematycznie nie równoważne.
Podobnie drugie możliwe prawo kontrapozycji dla naszego przykładu:
P2~>P8 # ~P8~>~P2
Wniosek:
Prawdziwość zdania po jednej stronie wymusza prawdziwość zdania po drugiej stronie. Oba zdania są prawdziwe ale matematycznie nie równoważne.
Klasyczny Rachunek Zdań
W prawach kontrapozycji poprawnych w KRZ będziemy mieli wyżej znak równości:
P8=>P2 = ~P8=>~P2
Prawdziwość zdania po jednej stronie wymusza prawdziwość zdania po drugiej stronie.
P2~>P8 = ~P8~>~P2
Prawdziwość zdania po jednej stronie wymusza prawdziwość zdania po drugiej stronie.
Jak widzimy wyżej wnioski końcowe w NTI i KRZ co do prawdziwości zdań powiązanych prawami kontrapozycji są identyczne.
Komentarz NTI:
Owszem, oba zdania są prawdziwe ale matematycznie nie równoważne co wynika z nowych definicji implikacji w NTI. Definicji się nie obala, można je przyjąć albo nie.
Pytanie Kubusia do matematyków jest takie:
Skoro istnieją w logice definicje implikacji materialnej, logicznej i ścisłej wynikające z tego samego kodu zero-jedynkowego to jakie widzicie problemy z przyjęciem definicji implikacji z NTI ?
Niech życie zweryfikuje które definicje są najlepsze.
Argument za definicjami z NTI jest jeden ale za to jaki !
NTI to matematyczny opis naturalnej logiki człowieka od 5-cio latka poczynając na profesorze kończąc.
7.0 Implikacja prosta i odwrotna - algorytmy
Działanie mózgu w obsłudze operatorów implikacji jest identyczne jak działanie każdego komputera z fundamentalnym wyjątkiem. W definicjach implikacji mamy w każdej połówce przypadkowość, co jest absurdem w technice.
7.1 Implikacja prosta - algorytm działania
Implikację „Jeśli p to q” mózg człowieka obsługuje w dwóch taktach w pierwszym bada zgodność z p zaś w drugim zgodność z q. W żadnej chwili czasowej nie ma wykroczenia poza dwuelementową algebrę Boole’a.
Algorytm działania implikacji prostej =>:
Kod: |
Zdanie wypowiedziane:
p=>q
musi
Jeśli |----- q --- p=>q=1
|----- p -----|musi 1 1 =1
| |----- ~q --- p=>~q=0
| 1 0 =0
|
X => ---|
|
| może
|Jeśli |----- ~q --- ~p~>~q=1
|----- ~p -----|może 0 0 =1
|----- q --- ~p~~>q=1
0 1 =1
|
Doskonale widać tabele zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
p=1, ~p=0
q=1, ~q=0
Jak widać, w pierwszym takcie podejmujemy decyzją czy iść drogą p czy też ~p co zależy od wylosowanego elementu X. W drugim takcie zawsze mamy tylko i wyłącznie dwie możliwości do wyboru, zatem cały czas jesteśmy w dwuelementowej algebrze Boole’a.
Sens implikacji prostej:
Po nieskończonej ilości losowań wszystkie pudełka będą pełne za wyjątkiem pudełka p=>~q=0 które będzie puste, stąd taki a nie inny rozkład zer i jedynek w implikacji prostej. Najważniejsze w implikacji prostej nie jest puste pudełko, ale gwarancja matematyczna p=>q=1.
Przykład:
Jeśli zwierzę jest psem to na pewno ma cztery łapy
P=>4L
Bycie psem wystarcza aby mieć cztery łapy, zatem implikacja prosta prawdziwa
Analiza:
Jeśli zajdzie p
Jeśli zwierzę jest psem to na pewno ma cztery łapy
P=>4L =1 - w tym pudełku wszystkie ziemskie psy. Gwarancja w implikacji prostej !
1 1 =1
Z prawdy (P= zwierzę jest psem) na pewno wyniknie prawda (4L=zwierzę ma cztery łapy) =1 - pies
stąd:
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L =0 - pudełko puste
1 0 =0
Z prawdy (P= zwierzę jest psem) na pewno wyniknie prawda (~4L=zwierzę nie ma czterech łap) =0 - oczywisty fałsz
… a jeśli zwierzę nie jest psem ?
Prawo Kubusia:
P=>4L = ~P~>~4L
czyli:
Jeśli zajdzie ~p
Jeśli zwierzę nie jest psem to może ~> nie mieć czterech łap
~P~>~4L =1 - w tym pudełku wąż, kura, mrówka …
0 0 =1
Z prawdy (~P = zwierzę nie jest psem) może wyniknąć prawda (~4L=zwierzę nie ma czterech łap) =1 bo kura …
LUB
Jeśli zwierzę nie jest psem to może ~~> mieć cztery łapy
~P~~>4L =1 - w tym pudełku słoń, koń, hipopotam …
0 1 =1
Z prawdy (~P= zwierzę nie jest psem) może wyniknąć prawda (4L=zwierzę ma cztery łapy) =1 bo słoń…
Doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
P=1, ~P=0
4L=1, ~4L=0
Prawda 5
~p~~>q =1
0 1 =1
Jak widać linia 0 1 =1 nie oznacza że „z fałszu może wyniknąć prawda” ale że:
Z prawdy (nie zajdzie p) może wyniknąć prawda (zajdzie q) =1
Żegnaj kolejny implikacyjny micie rodem z definicji implikacji materialnej.
7.2 Implikacja odwrotna - algorytm działania
Algorytm działania implikacji odwrotnej:
Kod: |
Zdanie wypowiedziane:
p~>q
może
Jeśli |----- q --- p~>q=1
|----- p -----|może 1 1 =1
| |----- ~q --- p~~>~q=1
| 1 0 =1
|
Y ~> ---|
|
| musi
|Jeśli |----- ~q --- ~p=>~q=1
|----- ~p -----|musi 0 0 =1
|----- q --- ~p=>q=0
0 1 =0
|
Doskonale widać tabele zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
p=1, ~p=0
q=1, ~q=0
Tu także implikacja obsługiwana jest w dwóch taktach. W pierwszym następuje decyzja czy iść linią p czy też ~p w zależności od wylosowanego elementu Y. W drugim takcie mamy do wyboru zawsze dwie możliwości czyli cały czas jesteśmy w dwuelementowej algebrze Boole’a.
Sens implikacji odwrotnej:
Po nieskończonej ilości losowań wszystkie pudełka będą pełne za wyjątkiem pudełka ~p=>q=0 które będzie puste, stąd taki a nie inny rozkład zer i jedynek w implikacji odwrotnej. Najważniejsze w implikacji odwrotnej nie jest puste pudełko, ale gwarancja matematyczna ~p=>~q=1.
Przykład:
Jeśli zwierzę ma cztery łapy to może być psem
4L~>P =1
Cztery łapy są konieczne aby być psem, zatem implikacja odwrotna prawdziwa.
Analiza:
A.
Jeśli zwierzę ma cztery łapy to może ~> być psem
4L~>P =1 - w tym pudełku wszystkie ziemskie psy
1 1 =1
Z prawdy (4L=zwierzę ma cztery łapy) może wyniknąć prawda (P=zwierzę jest psem) =1 bo pies
LUB
B.
Jeśli zwierzę ma cztery łapy to może ~~> nie być psem
4L~~>~P =1 - w tym pudełku słoń, koń, hipopotam …
1 0 =1
Z prawdy (4L=zwierzę ma cztery łapy) może wyniknąć prawda (~P= zwierzę nie jest psem) =1 bo słoń
… a jeśli zwierzę nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
C.
Jeśli zwierzę nie ma czterech łap to na pewno => nie jest psem
~4L=>~P =1 - w tym pudełku wąż, kura, mrówka … Gwarancja w implikacji odwrotnej !
0 0 =1
Z prawdy (~4L=zwierzę nie ma czterech łap) na pewno wyniknie prawda (~P= zwierzę nie jest psem) =1 bo kura
D.
Jeśli zwierzę nie ma czterech łap to na pewno => jest psem
~4L=>P =0 - pudełko puste
0 1 =0
Z prawdy (~4L=zwierzę nie ma czterech łap) na pewno wyniknie prawda (P= zwierzę jest psem) =0 - fałsz (nie jest to możliwe)
Doskonale widać tabelę zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
4L=1, ~4L=0
P=1, ~P=0
Prawda 10
p~~>~q =1
1 0 =1
Jak widać linia 1 0 =1 nie oznacza że „z prawdy może wyniknąć fałsz” ale że:
Z prawdy (zajdzie p) może wyniknąć prawda (nie zajdzie q) =1
Podsumowanie:
1.
Gdyby na świecie cztery łapy posiadały wyłącznie psy to zdanie B byłoby fałszem, zaś zdanie wypowiedziane A byłoby równoważnością. Jednak cztery łapy mają nie tylko psy ale cała masa innych zwierząt. Zdanie A dotyczy wyłącznie psów, pozostałe zwierzaki muszą być zatem w linii B bo w logice nic nie może zginąć. Zdania C i D dotyczą zwierzaków które nie maja czterech łap, zatem tu nie można upchnąć ani jednego zwierzaka który ma cztery łapy.
2.
Wyobraźmy sobie teraz powyższe algorytmy implikacji jako czarne pudełko z jednym wejściem i czterema wyjściami. Jeśli zdanie jest implikacją to elementy wrzucane do tego pudełka segregowane są na cztery zbiory z których jeden jest zawsze pusty. Oznacza to, że implikacja jest wirtualną logiką czterowartościową i rzeczywistą dwuwartościową co wynika z powyższych algorytmów.
8.0 Implikacja w równaniach algebry Boole’a
W naturalnym języku mówionym każdy człowiek od 5-cio latka po profesora korzysta praktycznie wyłącznie z nowych definicji implikacji prostej => i odwrotnej ~> oraz praw Kubusia których używa milion razy na dobę. Z równoważnych definicji implikacji wyrażonych w operatorach AND I OR korzysta w specyficznych przypadkach odpowiadając na pytanie kiedy wystąpi fałsz/kłamstwo.
Implikacja prosta:
Przykład:
Jeśli zwierzę jest psem to na pewno ma cztery łapy.
P=>4L
Bycie psem jest warunkiem wystarczającym aby mieć cztery łapy, zatem implikacja prosta prawdziwa
… a kiedy wystąpi fałsz ?
Na podstawie definicji w równaniu algebry Boole’a mamy:
Y = p=>q = ~p+q = ~(p*~q)
czyli dla naszego przykładu:
Y = P=>4L = ~P+4L = ~(P*~4L) - prawda (Y)
Negujemy dwustronnie:
~Y = ~(P=>4L) = P*~4L - fałsz (~Y)
Wystąpi fałsz (~Y), jeśli zwierzę będzie psem i nie będzie miało czterech łap
~Y = P*~4L - fałsz (~Y)
Implikacja odwrotna:
Przykład:
Jeśli zwierzę ma cztery łapy to może być psem
4L~>P
Cztery łapy są warunkiem koniecznym aby być psem, zatem implikacja odwrotna prawdziwa
… a kiedy wystąpi fałsz ?
Na podstawie definicji w równaniu algebry Boole’a mamy:
Y = p~>q = p+~q = ~(~p*q)
czyli dla naszego przykładu:
Y = 4L~>P = 4L+~P = ~(~4L*P) - prawda (Y)
Negujemy dwustronnie:
~Y = ~(4L~>P) = ~4L*P - fałsz (~Y)
Wystąpi fałsz (~Y), jeśli zwierzę nie będzie miało czterech łap i będzie psem
Poza tym co wyżej, definicje implikacji w równaniach algebry Boole’a nie są do niczego potrzebne, tak wiec kolejne dwa punkty można pominąć.
8.1 Implikacja prosta w równaniach
Definicja zero-jedynkowa implikacji prostej:
Kod: |
Tabela A
p q Y=p=>q ~Y=~(p=>q)
1 1 =1 0
1 0 =0 1
0 0 =1 0
0 1 =1 0
|
To samo w równaniu algebry Boole’a:
p=>q = ~p+q = ~(p*~q)
Skąd się wzięło to równanie?
Przechodzimy do definicji symbolicznej implikacji prostej w logice dodatniej przyjmując:
p=1, ~p=0
q=1, ~q=0
Kod: |
Tabela B
p q Y=p=>q ~Y=~(p=>q)
p q 1 0
p ~q 0 1
~p ~q 1 0
~p q 1 0
|
Utwórzmy wszystkie możliwe definicje implikacji prostej wyrażone w operatorach AND i OR.
Na początek przypomnijmy sobie podstawowe definicje z operatorów AND i OR (część I).
Definicja logiki dodatniej i ujemnej dla operatorów AND i OR:
Logika dodatnia (Y) to odpowiedź na pytanie kiedy dotrzymam słowa (wystąpi prawda), zaś logika ujemna (~Y) to odpowiedź na pytanie kiedy skłamię (wystąpi fałsz).
gdzie:
Y - funkcja logiczna w logice dodatniej (brak przeczenia)
~Y - funkcja logiczna w logice ujemnej (jest przeczenie)
Związek logiki dodatniej z logiką ujemną opisuje równanie:
Y = ~(~Y) - prawo podwójnego przeczenia
Prawo przedszkolaka:
W dowolnej funkcji logicznej Y algebry Boole’a z operatorami AND i OR przejście do logiki przeciwnej uzyskujemy poprzez negację zmiennych i wymianę operatorów na przeciwne.
Najprostsze równania uzyskujemy z drugiej linii bowiem mamy tu samotną jedynkę w logice ujemnej.
A1.
~Y = p*~q
Wystąpi fałsz (~Y), wtedy i tylko wtedy gdy zajdzie p i ~q
Związek logiki dodatniej i ujemnej:
Y=~(~Y)
stąd:
A2.
Y=~(p*~q)
Wystąpi prawda (Y), jeśli nie zdarzy się ~(…), że zajdzie p i ~q
Z równaniem A1 przechodzimy do logiki przeciwnej metodą przedszkolaka negując zmienne i wymieniając operatory na przeciwne.
A3.
Y = ~p+q
Wystąpi prawda (Y), jeśli zajdzie ~p lub q
… a kiedy wystąpi fałsz (~Y) ?
A4.
~Y=~(Y) - logika ujemna to zanegowana logika dodatnia
stąd:
~Y = ~(~p+q)
Oczywiście zachodzi:
Y=Y (A3=A2)
stąd:
~p+q = ~(p*~q) - prawo de’Morgana
oraz:
~Y=~Y (A1=A4)
stąd:
p*~q = ~(~p+q) - prawo de’Morgana
Dla człowieka intuicyjny odczyt to równania A1 i A2, to naturalna logika człowieka. Równania A3 i A4 będą ciężko zrozumiałe ponieważ nie jest to naturalna logika człowieka. Zauważmy, że nie musimy się wysilać aby zrozumieć A3 i A4 na podstawie prawa de’Morgana wyżej.
Równania równoważne do powyższych uzyskujemy opisując jedynki w logice dodatniej (Y).
Kolejność wykonywania działań:
nawiasy, *, +
Y=p*q+~p*~q+~p*q
Powyższe równanie łatwo można uprościć:
Y = p*q+~p*~q+~p*q = p*q +[~p*(~q+q)] = p*q +~p
bo:
A*B+A*C = A*(B+C) - prawo algebry Boole’a
~q+q=1 i ~p*1=~p - prawa algebry Boole’a
Stąd końcowa postać:
B1.
Y=p*q+~p - prawda
… a kiedy wystąpi fałsz ?
B2.
~Y=~(Y)
stąd:
~Y = ~(p*q+~p)
Przechodzimy teraz w równaniem B1 do logiki ujemnej metoda przedszkolaka czyli negujemy zmienne i wymieniamy operatory na przeciwne.
Zauważmy, że przed przekształceniem musimy uzupełnić nawiasy w równaniu wyjściowym:
B1.
Y=(p*q)+~p
Przejście do logiki ujemnej:
B3.
~Y = (~p+~q)*p - fałsz
Oczywiście zachodzi:
Y=~(~Y)
stąd ostatnie równanie:
Y=~[(~p+~q)*p]
Oczywiście wszystkie powyższe równania są równoważne, ale nie wszystkie będą zrozumiałe dla człowieka.
Z powyższych równań najważniejsze dla nas to:
A1.
~Y = p*~q - twardy fałsz
Wystąpi fałsz (~Y), wtedy i tylko wtedy gdy zajdzie p i ~q
A2.
Y=~(p*~q) - twarda prawda
Wystąpi prawda (Y), jeśli nie zdarzy się ~(…), że zajdzie p i ~q
B1.
Y=p*q+~p
Na podstawie A1 mamy:
p*~q =~Y
stąd:
p*q =Y
bo nie ma innych możliwości po stronie p
Z równania B1 odczytujemy, że jeśli zajdzie ~p=1 to:
Y=p*q+1 =1
bo: A+1 =1 - prawo algebry Boole’a
bez względu na stan q, stąd mamy:
~p*~q = Y
~p*q =Y
Stąd mamy tabelę symboliczną implikacji prostej:
Kod: |
p* q = Y
p*~q =~Y
~p*~q = Y
~p* q = Y
|
Dla logiki dodatniej:
p=1, ~p=0
q=1, ~q=0
Y=1, ~y=0
otrzymujemy tabele zero-jedynkową implikacji prostej:
Kod: |
p q p=>q
1 1 =1
1 0 =0
0 0 =1
0 1 =1
|
czyli zrobiliśmy wielkie koło i wróciliśmy do punktu wyjścia, czyli definicji zero-jedynkowej implikacji prostej.
8.2 Implikacja odwrotna w równaniach
Definicja zero-jedynkowa implikacji odwrotnej:
Kod: |
Tabela A
p q Y = p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
To samo w równaniu algebry Boole’a:
p~>q = p+~q = ~(~p*q)
Skąd się wzięło to równanie?
Przechodzimy do definicji symbolicznej implikacji odwrotnej w logice dodatniej przyjmując:
p=1, ~p=0
q=1, ~q=0
Kod: |
Tabela B
p q Y=p~>q ~Y=~(p~>q)
p q 1 0
p ~q 1 0
~p ~q 1 0
~p q 0 1
|
Utwórzmy wszystkie możliwe definicje implikacji odwrotnej wyrażone w operatorach AND i OR.
Najprostsze równania uzyskujemy z ostatniej linii bowiem mamy tu samotną jedynkę w logice ujemnej.
A1.
~Y = ~p*q
Wystąpi fałsz (~Y), wtedy i tylko wtedy gdy zajdzie ~p i q
Związek logiki dodatniej i ujemnej:
Y=~(~Y)
stąd:
A2.
Y=~(~p*q)
Wystąpi prawda (Y), jeśli nie zdarzy się ~(…), że zajdzie ~p i q
Z równaniem A przechodzimy do logiki przeciwnej metodą przedszkolaka negując zmienne i wymieniając operatory na przeciwne.
A3.
Y = p+~q
Wystąpi prawda (Y), jeśli zajdzie p lub ~p
Negujemy dwustronnie i mamy ostatnie możliwe równanie:
A4.
~Y = ~(p+~q)
Oczywiście zachodzi:
Y=Y (A3=A2)
stąd:
p+~q = ~(~p*q) - prawo de’Morgana
oraz:
~Y=~Y (A1=A4)
stąd:
~p*q = ~(p+~q) - prawo de’Morgana
Dla człowieka intuicyjny odczyt to równania A1 i A2, to naturalna logika człowieka. Równania A3 i A4 będą ciężko zrozumiałe ponieważ nie jest to naturalna logika człowieka. Zauważmy, że nie musimy się wysilać aby zrozumieć A3 i A4 na podstawie prawa de’Morgana wyżej.
Równania równoważne do powyższych uzyskujemy opisując jedynki w logice dodatniej (Y).
Kolejność wykonywania działań:
nawiasy, *, +
Y=p*q+ p*~q + ~p*~q
Powyższe równanie łatwo można uprościć:
Y= p*q+ p*~q + ~p*~q = p*(q+~q) + ~p*~q = p+~p*~q
bo:
A*B+A*C = A*(B+C) - prawo algebry Boole’a
q+~q=1 i p*1=p - prawa algebry Boole’a
Stąd końcowa postać:
B1.
Y=p + ~p*~q - prawda
Oczywiście:
~Y=~(Y)
stąd:
B2.
~Y = ~(p+~p*~q) - fałsz
Przechodzimy z równaniem B1 do logiki ujemnej metoda przedszkolaka negując zmienne i wymieniając operatory na przeciwne. Oczywiście pamiętamy o uprzednim uzupełnieniu nawiasów.
B1.
Y=p + (~p*~q)
stąd:
B3.
~Y = ~p*(p+q)
Oczywiście:
Y=~(~Y)
stąd:
B4.
Y = ~[p+(~p*~q)]
Z powyższych równań najważniejsze dla nas to:
A1.
~Y = ~p*q
Wystąpi fałsz (~Y), wtedy i tylko wtedy gdy zajdzie ~p i q
A2.
Y=~(~p*q)
Wystąpi prawda (Y), jeśli nie zdarzy się ~(…), że zajdzie ~p i q
B1.
Y=p + (~p*~q)
Z równania B1 mamy:
Jeśli p=1 to Y=1 czyli q może być dowolne q lub ~q
stąd:
p*q = Y
p*~q= Y
Z równania A1 mamy:
~p*q =~Y - twardy fałsz
stąd:
~p*~q = Y - twarda prawda
Stąd otrzymujemy tabelę symboliczną implikacji odwrotnej:
Kod: |
p* q = Y
p*~q = Y
~p*~q = Y
~p* q =~Y
|
Dla logiki dodatniej:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
mamy tabelę zero-jedynkową implikacji odwrotnej.
Kod: |
p q p~>q
1 1 =1
1 0 =1
0 0 =1
0 1 =0
|
Czyli znów zrobiliśmy wielkie koło i wróciliśmy do punktu wyjścia, czyli do definicji zero-jedynkowej implikacji odwrotnej.
9.0 Nowa teoria implikacji w bramkach logicznych
Algebry Boole’a i algebra dziesiętna, to dwa fundamentalnie różne światy, dlatego nie ma tu konfliktu między symbolami technicznymi OR(+) i AND(*) a algebrą dziesiętną. Wśród matematyków (także na matematyce.pl) nagminnym grzechem jest przytaczanie analogii ze świata algebry dziesiętnej i wyciąganie z tego jakichś „wniosków”. Aby zrozumieć algebrę Boole’a trzeba posługiwać się techniką bramek logicznych, bo to jest jedyny poprawny punkt odniesienia, oczywiście z algebrą dziesiętną mający ZERO wspólnego. Szczytowy rozwój bramek logicznych to lata 1974-80 (akurat wtedy Kubuś studiował elektronikę), cały rozwój technicznej algebry Boole’a zabiły mikroprocesory (pierwszy przyzwoity to i8080 z 1974r).
Warunki konieczny i wystarczający wynikają bezpośrednio z definicji zero-jedynkowych implikacji odwrotnej ~> i prostej =>.
9.1 Prawa Kubusia w bramkach logicznych
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” => zajść q
p musi być warunkiem wystarczającym dla q
=> - operator implikacji prostej, spójnik „musi” ze spełnionym warunkiem wystarczającym
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Prawa Kubusia:
p=>q = ~p~>~q - prawo zamiany implikacji prostej => na odwrotną ~>
p~>q = ~p=>~q - prawo zamiany implikacji odwrotnej ~> na prostą =>
Prawo Kubusia w teorii bramek logicznych:
p=>q = ~p~>~q - prawo zamiany bramki „musi” => na bramkę „może” ~>
p~>q = ~p=>~q - prawo zamiany bramki „może” ~> na bramkę „musi” =>
Bramki logiczne „musi” => i „może” ~> nie są znane człowiekowi, najwyższy czas podać ich definicje …
Definicja implikacji prostej w równaniu algebry Boole’a:
p=>q = ~p+q
Jeśli zajdzie p to „musi” zajść q
p musi być wystarczające dla q
Na podstawie tej definicji łatwo konstruujemy bramkę implikacji prostej, którą jest bramka sumy logicznej OR z zanegowaną w środku linią p. W technice cyfrowej symbolem negacji jest kółko „O”.
Bramkowa definicja implikacji prostej:
Kod: |
p q
| |
-------
|O => |
| musi|
| OR |
-------
|
p=>q
|
Stojąc na przewodzie p, punkcie odniesienia, widzimy niezanegowaną linię q.
Definicja implikacji odwrotnej w równaniu algebry Boole’a:
p~>q = p+~q
Jeśli zajdzie p to „może” zajść q
p musi być konieczne dla q
Na podstawie tej definicji mamy bramkę implikacji odwrotnej którą jest bramka sumy logicznej OR z zanegowaną w środku linią q.
Bramkowa definicja implikacji odwrotnej:
Kod: |
p q
| |
-------
| ~> O|
| może|
| OR |
-------
|
p~>q
|
Stojąc na przewodzie p, punkcie odniesienia, widzimy zanegowaną linię q.
Układ zastępczy bramki implikacji prostej
Prawo Kubusia:
p=>q = ~p~>~q
Kod: |
p q p q p q
| | | | | |
| | O O O O
| | |~p |~p |~p |~q
| | O O | |
| | |p |q | |
------- ------- -------
|O => | = |O => | = | ~> O|
|musi | |musi | |może |
|OR | |OR | |OR |
------- ------- -------
| | |
A B C
p=>q p=>q ~p~>~q
|
Na schemacie B wprowadzamy w linie wejściowe po dwie negacje.
Oczywiście układ nie ulegnie zmianie zgodnie z prawem podwójnego przeczenia.
p=~(~p)
Na rysunku C wpychamy po jednej negacji do środka bramki OR.
Negacja z wejście p przemieści się na wejście q [bo ~(~p)=p], zaś bramka stanie się bramką implikacji odwrotnej zgodnie z jej definicją bramkową wyżej.
Bramka A jest równoważna bramce C czyli:
p=>q = ~p~>~q - prawo Kubusia
To samo co wyżej w tabeli zero-jedynkowej:
Kod: |
p q p=>q ~p ~q ~p~>~q
1 1 =1 0 0 =1
1 0 =0 0 1 =0
0 0 =1 1 1 =1
0 1 =1 1 0 =1
|
Doskonale widać iż w logice dodatniej (q) mamy do czynienia z bramką implikacji prostej, natomiast w logice ujemnej (~q) z bramką implikacji odwrotnej.
Układ zastępczy bramki implikacji odwrotnej ~>
Prawo Kubusia:
p~>q = ~p=>~q
Kod: |
p q p q p q
| | | | | |
| | O O O O
| | |~p |~p |~p |~q
| | O O | |
| | |p |q | |
------- ------- -------
| ~> O| = | ~> O| = |O => |
|może | |może | |musi |
|OR | |OR | |OR |
------- ------- -------
| | |
A B C
p~>q p~>q ~p=>~q
|
Bramka A jest równoważna bramce C czyli:
p~>q = ~p=>~q - prawo Kubusia
To samo co wyżej w tabeli zero-jedynkowej:
Kod: |
p q p~>q ~p ~q ~p=>~q
1 1 =1 0 0 =1
1 0 =1 0 1 =1
0 0 =1 1 1 =1
0 1 =0 1 0 =0
|
Doskonale widać iż w logice dodatniej (q) mamy do czynienia z bramka implikacji odwrotnej, natomiast w logice ujemnej (~q) z bramką implikacji prostej.
Zauważmy, że w przypadku praw Kubusia (w przeciwieństwie do praw de’Morgana) na wyjściu bramki nie musieliśmy wprowadzać dwu negatorów. Wstawiamy tu wyłącznie po dwie negacje w linie wejściowe co oczywiście również nie zmienia w żaden sposób układu cyfrowego.
Oczywiście na mocy definicji i praw de’Morgana zachodzi:
p=>q # p~>q
czyli:
p=>q = ~p~>~q = ~p+q = ~(p*~q) # p~>q = ~p=>~q = p+~q = ~(~p*q)
9.2 Implikacja prosta w bramkach logicznych
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” => zajść q
p musi być warunkiem wystarczającym dla q
=> - operator implikacji prostej, spójnik „musi” ze spełnionym warunkiem wystarczającym
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Prawa Kubusia:
p=>q = ~p~>~q - prawo zamiany operatora => na ~>
p~>q = ~p=>~q - prawo zamiany operatora ~> na =>
Zdanie wypowiedziane:
Jeśli zajdzie p to na pewno zajdzie q
p=>q
p musi być warunkiem wystarczającym dla q
Tabela operatorowa i zero-jedynkowa dla zdania wypowiedzianego:
Kod: |
p=>q=1
1 1 =1
stąd:
p=>~q=0
1 0 =0
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p=>q=~p~>~q
czyli:
~p~>~q=1
0 0 =1
~p~~>q =1
0 1 =1
|
Doskonale widać tabelę zero jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
p=1, ~p=0
q=1, ~q=0
Spójniki zdaniowe
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Fizyczna realizacja w bramkach logicznych:
Kod: |
p q
| |
| x-------------------x
| | |
x-------------------x |
| | | |
| | O O
| | |~p |~q
---------Tabela A --------- Tabela B
|O => |p=>q=1 | ~> O|~p~>~q=1
|musi |1 1 =1 |może |1 1 =1
|A |p=>~q=0 |B |~p~~>q=1
|OR |1 0 =0 |OR |1 0 =1
| |~p~>~q=1 | |p=>q =1
| |0 0 =1 | |0 0 =1
| |~p~~>q=1 | |p=>~q=0
| |0 1 =1 | |0 1 =0
--------- ---------
| |
| |
x---------x---------x
|
|
Y= p=>q = ~p~>~q
|
Rozszyfrowanie powyższego schematu ideowego.
Zauważmy, że sekwencja p=1, q=0 wymusza zero na bramce A. Na bramce B sygnały te są zanegowane zatem po minięciu negatorów na wejściu bramki B mamy sygnały p=0, q=1 co również wymusza zero na wyjściu bramki B. W pozostałych przypadkach na wyjściach obu bramek mamy jedynki, zatem układy po lewej i prawej stronie są równoważne.
Człowiek w naturalnym języku mówionym wypowiada wyłącznie warunki wystarczające => lub konieczne ~>, definiowane dwoma pierwszymi liniami operatora implikacji prostej (warunek wystarczający) lub dwoma pierwszymi liniami operatora implikacji odwrotnej (warunek konieczny).
Przypadek I
Wypowiadając zdanie p=>q mózg człowieka korzysta z dwóch pierwszych linii tabeli A:
p=>q =1
1 1 =1
p=>~q =0
1 0 =0
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p=>q = ~p~>~q
W tym momencie nasz mózg przeskakuje do tabeli B i korzysta z dwóch pierwszych linii:
~p~>~q =1
1 1 =1
~p~~>q =1
1 0 =1
Oczywiście dwie pierwsze linie tabeli B są tożsame z dwoma ostatnimi liniami tabeli A, co doskonale widać na schemacie. Linia 3 z tabeli A odpowiada linii 1 z tabeli B, natomiast linia 4 z tabeli A odpowiada linii 2 z tabeli B.
Przypadek II
Wypowiadając zdanie ~p~>~q mózg człowiek patrzy na zdanie poprzez tabelę B.
~p~>~q =1
1 1 =1
~p~~>q =1
1 0 =1
… a jeśli zajdzie p ?
Prawo Kubusia:
~p~>~q = p=>q
W tym przypadku przeskakujemy do operatora implikacji prostej => czyli do tabeli A i mamy odpowiedź na pytanie:
p=>q =1
1 1 =1
p=>~q =0
1 0 =0
Oczywiście dwie ostatnie linie z tabeli B są tożsame z dwoma pierwszymi liniami tabeli A czyli linia 3 tabeli B odpowiada linii 1 tabeli A oraz linia 4 tabeli B odpowiada linii 2 tabeli A.
9.3 Implikacja odwrotna w bramkach logicznych
Zdanie wypowiedziane:
Jeśli zajdzie p to może zajść q
p~>q
p musi być warunkiem koniecznym dla q
Tabela operatorowa i zero-jedynkowa dla zdania wypowiedzianego:
Kod: |
p~>q=1
1 1 =1
p~~>~q=1
1 0 =1
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p~>q=~p=>~q
czyli:
~p=>~q=1
0 0 =1
~p=>q=0
0 1 =0
|
Doskonale widać tabelę zero jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
p=1, ~p=0
q=1, ~q=0
Spójniki zdaniowe
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Fizyczna realizacja w bramkach logicznych:
Kod: |
p q
| |
| x-------------------x
| | |
x-------------------x |
| | | |
| | O O
| | |~p |~q
---------Tabela A --------- Tabela B
| ~> O|p~>q=1 |O => |~p=>~q=1
|może |1 1 =1 |musi |1 1 =1
|A |p~~>~q=1 |B |~p=>q=0
|OR |1 0 =1 |OR |1 0 =0
| |~p=>~q=1 | |p~>q =1
| |0 0 =1 | |0 0 =1
| |~p=>q=0 | |p~~>~q=1
| |0 1 =0 | |0 1 =1
--------- ---------
| |
| |
x---------x---------x
|
|
Y= p~>q = ~p=>~q
|
Rozszyfrowanie powyższego schematu ideowego.
Zauważmy, że sekwencja p=0, q=1 wymusza zero na bramce A. Na bramce B sygnały te są zanegowane zatem po minięciu negatorów na wejściu bramki B mamy sygnały p=1, q=0 co również wymusza zero na wyjściu bramki B. W pozostałych przypadkach na wyjściach obu bramek mamy jedynki, zatem układy po lewej i prawej stronie są równoważne.
Przypadek I
Wypowiadając zdanie p~>q mózg człowieka korzysta z dwóch pierwszych linii tabeli A:
p~>q =1
1 1 =1
p~~>~q =1
1 0 =1
… a jeśli nie zajdzie p ?
Prawo Kubusia:
p~>q = ~p=>~q
W tym momencie nasz mózg przeskakuje do tabeli B i korzysta z dwóch pierwszych linii:
~p=>~q =1
1 1 =1
~p=>q =0
1 0 =0
Oczywiście dwie pierwsze linie tabeli B są tożsame z dwoma ostatnimi liniami tabeli A, co doskonale widać na schemacie. Linia 3 z tabeli A odpowiada linii 1 z tabeli B, natomiast linia 4 z tabeli A odpowiada linii 2 z tabeli B.
Przypadek II
Wypowiadając zdanie ~p=>~q mózg człowiek patrzy na zdanie poprzez tabelę B.
~p=>~q =1
1 1 =1
~p=>q =0
1 0 =0
… a jeśli zajdzie p ?
Prawo Kubusia:
~p~>~q = p=>q
W tym przypadku przeskakujemy do operatora implikacji odwrotnej ~> czyli do tabeli A i mamy odpowiedź na pytanie:
p~>q =1
1 1 =1
p~~>~q =1
1 0 =1
Oczywiście dwie ostatnie linie z tabeli B są tożsame z dwoma pierwszymi liniami tabeli A czyli linia 3 tabeli B odpowiada linii 1 tabeli A oraz linia 4 tabeli B odpowiada linii 2 tabeli A.
10.0 Nowa teoria implikacji w przedszkolu
Nadszedł czas weryfikacji algebry Kubusia, której podstawy przed chwilą poznaliśmy. Dotychczas poznaliśmy algebrę Kubusia poczynając od tabel zero-jedynkowych, poprzez definicje symboliczne dochodząc do definicji operatorowych. W tym punkcie zrobimy dokładnie odwrotnie, czyli poczynając od naturalnego języka przedszkolaka czyli definicji operatorowych zejdziemy w dół aż do definicji zero-jedynkowych. Ten sposób podejścia był kluczem do rozwiązania problemu implikacji którą posługują się ludzie.
10.1 Kubuś na tropie implikacji odwrotnej
Udajmy się zatem do przedszkola, aby upewnić się czy dzieciaki znają algebrę Kubusia. Zadaniem dzieci będzie określenie które z wypowiedzianych zdań jest prawdziwe a które fałszywe. Zdania oczywiście będą tendencyjne, bo wymawia je Kubuś. Na początek Kubuś postanowił sprawdzić jak reagują dzieci na implikację odwrotną. Poprosił je, aby przy określaniu czy zdanie jest prawdziwe/fałszywe brały pod uwagę wyłącznie psy zdrowe, z czterema łapami.
Kubuś:
A1:
Jeśli zwierzę ma cztery łapy to może być psem
4L~>P = 1 - zdanie prawdziwe bo pies, tu żaden przedszkolak nie miał wątpliwości.
Implikacja odwrotna prawdziwa bo cztery łapy są konieczne dla psa
LUB
A2:
Jeśli zwierzę ma cztery łapy to może nie być psem
4L~~>~P = 1 - zdanie prawdziwe bo słoń, koń, kot, lis, hipopotam …. przekrzykiwały się dzieci
Kubuś:
… a jeśli zwierzę nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
Dzieciaki:
A3:
Jeśli zwierzę nie ma czterech łap to na pewno nie jest psem
~4L=>~P =1 - zdanie oczywiście prawdziwe
Kubuś:
A4:
Jeśli zwierzę nie ma czterech łap to na pewno jest psem
~4L=>P = 0 - kłamstwo, fałsz, bo każdy pies ma cztery łapy … zgodnym chórem krzyknęły dzieci
Hmm … pomyślał Kubuś, dzieciaki doskonale znają matematyczną wersję implikacji odwrotnej, aby upewnić się czy to prawda, zaczął wypowiadać powyższe zdania w sposób losowy.
Dzieci ani razu nie popełniły błędu !
Zauważmy, że w zdaniu A1 cztery łapy są konieczne aby być psem, zatem jeśli zwierzę nie ma czterech łap to na pewno nie jest psem. Mamy tu bezpośredni dowód prawa Kubusia.
A1: 4L~>P= A3: ~4L=>~P
Zdanie A2 jest prawdziwe na mocy naturalnego spójnika „może” ~~> (wystarczy jedna prawda) ale na pewno nie jest implikacją.
Dlaczego ?
Wyrocznią są tu prawa Kubusia, prawdziwe wyłącznie w implikacji (fałszywe w równoważności).
Dowód nie wprost.
Załóżmy, że zdanie A2: 4L~>~P jest implikacją odwrotną prawdziwą.
Prawo Kubusia:
A2: 4L~>~P = A4: ~4L=>P
czyli:
Jeśli zwierzę nie ma czterech łap to na pewno jest psem
A4: ~4L=>P =0
Zdanie A4 jest na pewno fałszywe, zatem wobec zachodzącej tożsamości implikacja A2 musi być także fałszywa, czyli nie zachodzi tu warunek konieczny.
Prawdziwość zdania A2 opisuje wzór:
(4L~>~P) +( 4L~~>~P) = 0+1=1
Implikacja odwrotna (4L~>~P) na mocy prawa Kubusia jest tu oczywiście fałszywa, ale zdanie A2 jest prawdziwe na mocy naturalnego spójnika „może” ~~> (wystarczy jedna prawda, tu np. słoń).
10.2 Operatorowa definicja implikacji odwrotnej
Zapiszmy teraz powyższe zdania wyłącznie w postaci operatorowej, czyli przy pomocy operatorów „musi” (=>) i „może” (~> lub ~~>)
Kod: |
4L P Y=4L~>P ~Y=~(4L~>P)
4L ~> P = 1 0
4L~~>~P = 1 0
~4L=> ~P = 1 0
~4L => P = 0 1
|
gdzie:
1 - zdanie prawdziwe
0 - zdanie fałszywe
W matematyce nie operujemy na konkretnych przykładach, lecz na zapisach formalnych. Powszechnie przyjętym standardem są w implikacji literki p i q.
Jeśli p to q
p - poprzednik
q - następnik
Przepiszmy zatem powyższą tabelę podstawiając:
4L=p, P=q
Operatorowa definicja implikacji odwrotnej:
Kod: |
p q Y=p~>q ~Y=~(p~>q)
p ~> q = 1 0
p~~>~q = 1 0
~p=> ~q = 1 0
~p => q = 0 1
|
Prawo Kubusia:
p~>q = ~p=>~q
gdzie:
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
Zauważmy, że w implikacji odwrotnej p musi być konieczne dla q, inaczej pierwsza linia definicji operatorowej jest twardym fałszem, zdanie na pewno nie jest implikacją odwrotną.
Przykład:
Jeśli zwierzę ma skrzydła to może być psem
S~>P=0
Oczywisty twardy fałsz bo skrzydła nie są warunkiem koniecznym dla psa.
Po opuszczeniu operatorów w powyższej definicji otrzymujemy symboliczną definicję implikacji odwrotnej .
Symboliczna definicja implikacji odwrotnej:
Kod: |
p q Y=p~>q ~Y=~(p~>q)
p q = 1 0
p ~q = 1 0
~p ~q = 1 0
~p q = 0 1
|
Najprostszą definicję implikacji odwrotnej w równaniu algebry Boole’a otrzymujemy z ostatniej linii tabeli.
Wystąpi fałsz (~Y=1) wtedy i tylko wtedy gdy zajdzie ~p i zajdzie q.
~Y= ~p*q
Kiedy wystąpi prawda ?
Przechodzimy do logiki przeciwnej metodą przedszkolaka negując zmienne i wymieniając operator AND(*) na OR(+).
Y=p+~q
stąd …
Definicja implikacji odwrotnej w równaniu algebry Boole’a:
Y= p~>q = p+~q = ~(~p*q) - na podstawie prawa de’Morgana
Wystąpi prawda (Y=1) wtedy i tylko wtedy gdy nie zdarzy się ~(…), że zajdzie ~p i zajdzie q.
10.3 Zero-jedynkowa definicja implikacji odwrotnej
Zero jedynkowa definicja implikacji odwrotnej to w dniu dzisiejszym zabytek klasy zerowej. Wszyscy ludzie na ziemi od przedszkolaka po profesora posługują się biegle operatorową definicją implikacji odwrotnej. Nie ma potrzeby przechodzenia do zero-jedynkowej definicji implikacji odwrotnej.
Operatorowa definicja implikacji odwrotnej:
Kod: |
p q Y=p~>q ~Y=~(p~>q)
p ~> q = 1 0
p~~>~q = 1 0
~p=> ~q = 1 0
~p => q = 0 1
|
Prawo Kubusia:
p~>q = ~p=>~q
Zauważmy, że prawo Kubusia obowiązuje w obrębie samej definicji implikacji, zatem implikacja odwrotna to w pierwszej części rzucanie monetą p~>q, zaś w drugiej części pewne wynikanie ~p=>~q.
Zero-jedynkową definicję implikacji odwrotnej otrzymujemy opuszczając operatory oraz przyjmując:
p=1, ~p=0
q=1, ~q=0
Zero-jedynkowa definicja implikacji odwrotnej:
Kod: |
p q Y=p~>q ~Y=~(p~>q)
1 1 1 0
1 0 1 0
0 0 1 0
0 1 0 1
|
Najprostsze równanie algebry Boole’a zapiszemy dla ostatniej linii bo tu w wyniku mamy samotne zero (Y=0).
Y=0 <=> p=0 i q=1
Przejście z takiego zapisu do równania algebry Boole’a możemy uzyskać na dwa sposoby.
Sposób 1
Definicja iloczynu logicznego:
Iloczyn logiczny n-zmiennych binarnych równy jest jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Mamy:
Y=0 <=> p=0 i q=1
czyli:
Y=0, ~Y=1
p=0, ~p=1
q=1
Sprowadzamy wszystkie sygnały do jedynki i stosujemy definicję iloczynu logicznego.
~Y=~p*q
Przechodzimy do logiki przeciwnej metodą przedszkolaka negując zmienne i wymieniając operatory na przeciwne
Y = p+~q
Sposób 2
Definicja sumy logicznej:
Suma logiczna n-zmiennych binarnych jest równa zeru wtedy i tylko wtedy gdy wszystkie zmienne są równe zeru.
Mamy:
Y=0 <=> p=0 i q=1
czyli:
Y=0
p=0
q=1,~q=0
Sprowadzamy wszystkie sygnały do zera i stosujemy definicję sumy logicznej.
Y=p+~q
Jak widać, w tym przypadku końcowe równanie implikacji odwrotnej mamy natychmiast.
Definicja implikacji odwrotnej w równaniu algebry Boole’a:
Y = p~>q = p+~q = ~(~p*q) - na podstawie prawa de’Morgana
Powyżej ułożyliśmy równanie wyłącznie dla ostatniej linii tabeli gdzie w wyniku było samotne zero, wszelkie pozostałe linie, zgodnie z prawem Prosiaczka muszą być jedynkami niezależnie od chciejstwa człowieka … bo to jest matematyka przecież.
Prawo Prosiaczka:
Równania algebry Boole’a dla dowolnej tabeli zero-jedynkowej n-elementowej tworzymy na podstawie linii z tą samą wartością logiczną w wyniku. Wszelkie nie opisane równaniami linie przyjmą wartości przeciwne do linii opisanych.
Definicja zero-jedynkowa implikacji odwrotnej przybierze zatem postać końcową.
Zero-jedynkowa definicja implikacji odwrotnej:
Kod: |
p q Y=p~>q=p+~q=~(~p*q) ~Y=~(p~>q)=~[~(~p*q)]=~p*q
1 1 1 0
1 0 1 0
0 0 1 0
0 1 0 1
|
Wystąpi prawda (Y=1) jeśli nie zdarzy się ~(…), że zajdzie ~p i q
Wystąpi fałsz (~Y=1) jeśli zajdzie ~p i q
10.4 Gwarancja matematyczna w implikacji odwrotnej
Istotą implikacji jest gwarancja matematyczna. Poza gwarancją wszystko może się zdarzyć czyli mamy rzucanie monetą.
Gwarancją w implikacji odwrotnej jest wynikająca z prawa Kubusia implikacja prosta:
Y=p~>q = ~p=>~q
Gwarancja:
Jeśli nie zajdzie p to na pewno nie zajdzie q
~p=>~q
Przykład:
Jeśli zwierzę ma cztery łapy to może być psem
Y=4L~>P
Gwarancja:
Y=4L~>P = ~4L=>~P - prawo Kubusia
G1:
Jeśli zwierzę nie ma czterech łap to na pewno => nie jest psem
Y=~4L=>~P
Gwarantowane zwierzaki to kura, mrówka, stonoga, wąż …
Gwarancja dotyczy zwierząt które nie mają czterech łap, te na pewno nie są psami, poza tą gwarancją wszystko może się zdarzyć czyli jeśli zwierzę ma cztery łapy to może być psem (tu pies), lub nie być psem (np. słoń) czyli mamy tu rzucanie monetą.
Gwarancję równoważną otrzymujemy z definicji implikacji odwrotnej zapisanej w równaniu algebry Boole’a.
Definicja implikacji odwrotnej:
Y=p~>q = p+~q = ~(~p*q) - na podstawie prawa de’Morgana
stąd:
Y=4L~>P = ~(~4L*P)
czyli:
G2:
Nie może się zdarzyć ~(…), że zwierzę nie ma czterech łap i jest psem
Y=~(~4L*P)
Oczywiście gwarantowane zwierzaki to kura, mrówka, stonoga, wąż … - te na pewno nie są psami.
… a kiedy wystąpi fałsz ?
Negujemy powyższe równanie dwustronnie:
~Y=~4L*P
Wystąpi fałsz (~Y) jeśli zwierzę nie będzie miało czterech łap i będzie psem.
Zauważmy coś bardzo ważnego. Człowiek mając do wybory dwie równoważne gwarancje G1 i G2 praktycznie na 100% zawsze wybierze G1 bo ta jest zdecydowanie bardziej klarowna.
Wniosek:
W naturalnym języku mówionym człowiek posługuje się przede wszystkim operatorową definicją implikacji odwrotnej.
Z definicji równoważnej, zapisanej w równaniu algebry Boole’a:
p~>q = ~p=>~q = ~(~p*q)
w praktyce nikt nie korzysta, co nie oznacza że przedszkolak miałby tu jakiekolwiek kłopoty.
Jaś:
G1:
Jeśli zwierzę nie ma czterech łap to na pewno => nie jest psem
Y=~4L=>~P
Kubuś:
… a czy może się zdarzyć że zwierzę nie ma czterech łap i jest psem ?
p~>q = ~p=>~q = p+~q = ~(~p*q) - na podstawie prawa Kubusia i definicji implikacji odwrotnej
stąd:
~4L=>~P = ~(~4L*P)
Jaś:
Nie może się zdarzyć, że zwierzę nie ma czterech łap i jest psem
~(~4L*P)
Zauważmy, że przeanalizowaliśmy implikację odwrotną:
Jeśli zwierzę ma cztery łapy to może być psem
4L~>P
na wszelkie możliwe sposoby wyłącznie w symbolicznej algebrze Kubusia nie mając bezpośredniej styczności z kodem maszynowym czyli zerami i jedynkami po stronie p i q.
10.5 Kubuś na tropie implikacji prostej
Dzieci w przedszkolu są doskonałym testerem dowolnej logiki roszczącej sobie miano matematycznego opisu języka mówionego. Nowa, nieznana człowiekowi definicja implikacji odwrotnej ~> przeszła taki test bez najmniejszego problemu. Kubuś postanowił sprawdzić czy również nowa definicja implikacji prostej => przejdzie „test przedszkolaka”.
Druga wizyta Kubusia w przedszkolu.
Drogie dzieci, będę wypowiadał różne zdania o piesku i jego czterech łapach. Waszym zadaniem będzie rozstrzygnięcie czy zdanie jest prawdziwe/fałszywe. Proszę Was, abyście uwzględniali wyłącznie pieski zdrowe które mają cztery łapy.
B1:
Jeśli zwierzę jest psem to ma cztery łapy
P=>4L=1
Zdanie prawdziwe, zgodnym chórem krzyknęły dzieci, bo każdy pies ma cztery łapy.
Implikacja prosta prawdziwa bo bycie psem jest wystarczające, aby mieć cztery łapy.
B2:
Jeśli zwierzę jest psem to nie ma czterech łap
P=>~4L=0
Fałsz, kłamstwo, bo każdy pies ma cztery łapy, żaden przedszkolak nie miał tu wątpliwości
Jaś:
… a jeśli zwierzę nie jest psem ?
Prawo Kubusia:
P=>4L = ~P~>~4L
Kubuś:
B3:
Jeśli zwierzę nie jest psem to może nie mieć czterech łap
~P~>~4L=1
Prawda czy fałsz ?
Dzieci:
Prawda bo mrówka, stonoga, kura, wąż ….
lub
B4:
Jeśli zwierzę nie jest psem to może mieć cztery łapy
~P~~>4L=1
Prawda bo koń, słoń, wilk, hipopotam … przekrzykiwały się dzieci
Na wszelki wypadek by upewnić się czy nowa teoria matematyczna jest prawdziwa Kubuś zaczął wypowiadać powyższe zdania w sposób losowy.
Dzieci nie pomyliły się ani razu !
Nie ma zatem wątpliwości, symboliczna algebra Kubusia przeszła „test przedszkolaka” pomyślnie.
Zauważmy, że zdanie B4 nie może być implikacją odwrotną.
Dlaczego ?
Najprostszą wyrocznią jest tu oczywiście prawo Kubusia.
Dowód nie wprost.
Załóżmy że B4 jest implikacją odwrotną, wtedy musi być spełnione prawo Kubusia:
B4: ~P~>4L = B2: P=>~4L
Prawa strona tożsamości:
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L=0
.. to oczywisty fałsz, zatem fałszywa musi być tez implikacja po lewej stronie czyli:
B4: ~P~>4L=0
Prawdziwość zdania B4 określa wzór:
(~P~>4L)+(~P~~>4L) = 0+1 =1
gdzie:
~~> - naturalny spójnik „może”, wystarczy jedna prawda (tu np. koń), na pewno nie jest to implikacja odwrotna.
10.6 Operatorowa definicja implikacji prostej
Przepiszmy powyższy przykład wyłącznie w postaci operatorowej.
Kod: |
P 4L Y=(P=>4L) ~Y=~(P=>4L)
B1: P=> 4L = 1 0
B2: P=>~4L = 0 1
B3:~P~>~4L = 1 0
B4:~p~~>4L = 1 0
|
Prawo Kubusia:
P=>4L = ~P~>~4L
Oczywiście w matematyce nie operujemy na konkretnym przykładzie lecz na parametrach formalnych którymi w implikacji są literki p i q.
Podstawiamy zatem:
P=p i 4L=q
i otrzymujemy operatorową definicję implikacji prostej.
Operatorowa definicja implikacji prostej:
Kod: |
p q = Y=(p=>q) ~Y=~(p=>q)
p=> q = 1 0
p=>~q = 0 1
~p~>~q = 1 0
~p~~>q = 1 0
|
Prawo Kubusia:
p=>q = ~p~>~q
gdzie:
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Po opuszczeniu operatorów w powyższej definicji otrzymujemy symboliczną definicję implikacji prostej.
Symboliczna definicja implikacji prostej:
Kod: |
p q = Y=(p=>q) ~Y=~(p=>q)
p q = 1 0
p ~q = 0 1
~p ~q = 1 0
~p q = 1 0
|
Stąd dla drugiej linii zapisujemy najprostsze równanie algebry Boole’a.
Wystąpi fałsz (~Y=1) wtedy i tylko wtedy gdy zajdzie p i ~q
czyli:
~Y=p*~q
Przechodzimy do logiki przeciwnej metodą przedszkolaka negując zmienne i wymieniając operator AND(*) na OR(+):
Y=~p+q
stąd:
Definicja implikacji prostej w równaniu algebry Boole’a
Y = p=>q = ~p+q = ~(p*~q) - na podstawie prawa de’Morgana
10.7 Zero-jedynkowa definicja implikacji prostej
Operatorowa definicja implikacji prostej:
Kod: |
p q = Y=(p=>q) ~Y=~(p=>q)
p=> q = 1 0
p=>~q = 0 1
~p~>~q = 1 0
~p~~>q = 1 0
|
Prawo Kubusia:
p=>q = ~p~>~q
Zauważmy, że prawo Kubusia obowiązuje w obrębie samej definicji implikacji, zatem implikacja prosta to w pierwszej części pewne wynikanie p=>q, natomiast w drugiej części to najzwyklejsze rzucanie monetą ~p~>~q.
Po opuszczeniu operatorów w operatorowej definicji implikacji prostej i przyjęciu:
p=1, ~p=0
q=1, ~q=0
otrzymujemy …
Zero-jedynkowa definicja implikacji odwrotnej:
Kod: |
p q Y=(p=>q)=~p+q=~(p*~q) ~Y=~(p=>q)=~[~(p*~q)]=p*~q
1 1 1 0
1 0 0 1
0 0 1 0
0 1 1 0
|
Wystąpi prawda (Y=1) jeśli nie zdarzy się ~(…), że zajdzie p i ~q
Wystąpi fałsz (~Y=1) jeśli zajdzie p i ~q
10.8 Gwarancja w implikacji prostej
Na mocy definicji gwarancją jest sama definicja implikacji prostej ….
G1:
Jeśli zwierzę jest psem to na pewno => ma cztery łapy
P=>4L
Gwarantowany zwierzak to pies, który na pewno ma cztery łapy … poza tym wszystko może się zdarzyć czyli jeśli zwierzę nie jest psem to może nie mieć czterech łap (np. mrówka) lub jeśli zwierzę nie jest psem to może mieć cztery łapy (np. słoń).
Równoważną gwarancję, lecz w praktyce nigdy nie używaną mamy z równań algebry Boole’a.
Definicja implikacji prostej w równaniu algebry Boole’a.
Y = p=>q = ~p~>~q =~p+q = ~(p*~q) - na podstawie prawa de’Morgana
stąd:
P=>4L = ~P~>~4L = ~(P*~4L)
czyli:
G2:
Nie może się zdarzyć ~(…), że zwierzę jest psem i nie ma czterech łap
~(P*~4L)
Gwarantowany zwierzak to pies, poza tym wszystko może się zdarzyć.
Oczywiście nie oznacza to że przedszkolak będzie miał jakiekolwiek problemy z wypowiedzeniem gwarancji G2 … jeśli się go do tego zmusi.
Jaś:
Jeśli zwierze jest psem to na pewno ma cztery łapy
P=>4L
Kubuś:
… a czy może się zdarzyć że zwierze jest psem i nie ma czterech łap ?
P=>4L = ~(P*~4L) - na mocy definicji implikacji prostej
Jaś:
Nie może się zdarzyć ~(…), że zwierzę jest psem i nie ma czterech łap.
~(P*~4L)
10.9 O niezbędności operatorów implikacji
Jak widzimy wyżej, człowiek poruszając się po implikacji praktycznie nigdy nie przechodząc do definicji równoważnych w operatorach AND i OR.
Definicja implikacji prostej:
p=>q = ~p+q = ~(p*~q) - na podstawie prawa de’Morgana
Definicja implikacji odwrotnej:
p~>q = p+~q = ~(~p*q) - na podstawie prawa de’Morgana
Definicje implikacji w operatorach AND i OR:
~(p*~q) - implikacja prosta
~(~p*q) - implikacja odwrotna
Poprawnie opisują gwarancję matematyczną w tych implikacjach i absolutnie nic więcej.
Argumenty przeciw definicji implikacji z użyciem operatorów AND i OR:
1.
W definicjach implikacji wyrażonych w AND i OR nie zachodzi przemienność argumentów co jest sprzeczne z definicjami AND i OR.
2.
Nie może tu być mowy o warunku wystarczającym w implikacji prostej => i koniecznym w implikacji odwrotnej ~>, czyli czymś absolutnie kluczowym w pojęciu implikacji
3.
Niemożliwa jest analiza implikacji w naturalnym języku mówionym
4.
Niemożliwe jest dojście do praw Kubusia
Argumenty za definicją implikacji z użyciem operatorów AND i OR:
BRAK !
Ciąg dalszy na kolejnej stronie …
|
|
Powrót do góry |
|
|
Zobacz poprzedni temat :: Zobacz następny temat |
Autor |
Wiadomość |
rafal3006
Opiekun Forum Kubusia
Dołączył: 30 Kwi 2006
Posty: 35367
Przeczytał: 20 tematów
Skąd: z innego Wszechświata Płeć: Mężczyzna
|
Wysłany: Czw 22:33, 18 Mar 2010 Temat postu: |
|
|
11.0 Obietnice i groźby
Jednym z przykładów zastosowania implikacji prostej => i odwrotnej ~> jest matematyczna obsługa obietnic i gróźb.
Fundament algebry Kubusia
Definicja implikacji prostej:
p=>q = ~p+q
Jeśli zajdzie p to „musi” => zajść q
p musi być warunkiem wystarczającym dla q
=> - operator implikacji prostej, spójnik „musi” ze spełnionym warunkiem wystarczającym
Definicja implikacji odwrotnej:
p~>q = p+~q
Jeśli zajdzie p to „może” ~> zajść q
p musi być warunkiem koniecznym dla q
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Spójniki zdaniowe
=> - operator implikacji prostej, spójnik „musi” między p i q ze spełnionym warunkiem wystarczającym
~> - operator implikacji odwrotnej, spójnik „może” między p i q ze spełnionym warunkiem koniecznym
~~> - naturalny spójnik „może”, wystarczy jedna prawda, nie jest to implikacja odwrotna zatem warunek konieczny tu nie zachodzi
Prawa Kubusia:
p=>q = ~p~>~q - prawo zamiany operatora => na ~>
p~>q = ~p=>~q - prawo zamiany operatora ~> na =>
Żaden matematyk nie zakwestionuje poniższej definicji obietnicy:
Obietnica = implikacja prosta => - to jest w każdym podręczniku matematyki do I klasy LO
To wystarczy, dalej w banalny sposób można udowodnić kryształowo czystą matematyką że:
Groźba = implikacji odwrotna ~>
Dowód na przykładzie …
Cytat z:
[link widoczny dla zalogowanych]
Podręcznik do I klasy LO napisał: |
„Jeśli będziesz grzeczny dostaniesz czekoladę”
Załóżmy, że zdanie to wypowiedziała mama do swojego syna. Jeśli syn był grzeczny i dostał czekoladę (1 1 =1), mama nie skłamała. Jeśli syn był niegrzeczny i nie dostał czekolady (0 0 =1), mama także nie skłamała. Jeśli syn był grzeczny, a nie dostał czekolady (1 0 =0), oznacza to, że został okłamany. Okazuje się także, że gdyby syn był niegrzeczny i także dostał czekoladę (0 1 =1), mama by nie skłamała. Dlaczego? Ponieważ, mama nie stwierdziła, co go spotka, jeśli będzie niegrzeczny. Powiedziała jedynie, co go spotka jeśli będzie grzeczny.
|
Zauważmy, że analiza tego zdania jest zgodna z nową teoria implikacji. Błędne jest tylko „matematyczne” uzasadnienie przypadku w którym niegrzeczne dziecko dostaje czekoladę.
Poprawne uzasadnienie wynika oczywiście z prawa Kubusia które nie może być zgwałcone:
G=>C = ~G~>~C - prawo zamiany operatora => na ~>
czyli:
Jeśli syn będzie niegrzeczny to może dostać czekoladę lub nie. W tym przypadku mama ma 100% wolnej woli i nie ma najmniejszych szans na zostanie kłamcą … to jest matematyka ścisła, symboliczna algebra Boole’a. Nie ma tu żadnego znaczenia czego mama nie powiedziała.
Poprawna analiza matematyczna tego zdania jest taka:
A.
Jeśli będziesz grzeczny dostaniesz czekoladę
G=>C =1
1 1 =1 - zdanie wypowiedziane
Obietnica, zatem implikacja prosta, tu wszyscy się zgadzamy z podręcznikiem matematyki do I klasy LO
Skoro to implikacja prosta to:
B.
Jeśli będziesz grzeczny to na pewno => nie dostaniesz czekolady
G=>~C =0
1 0 =0
… a jak będę niegrzeczny ?
Prawo Kubusia:
G=>C = ~G~>~C
Mama:
C.
Jeśli będziesz niegrzeczny to nie dostaniesz czekolady
~G~>~C
W groźbach (zdanie C) spójnik „może” ~> jest z reguły pomijany. Nie ma to znaczenia gdyż spójnik ten jest gwarantowany przez absolutna świętość algebry Boole’a, prawo Kubusia.
Z prawa Kubusia wynika tu coś fundamentalnego:
Wszelkie groźby (zdanie C) musimy kodować operatorem implikacji odwrotnej, inaczej algebra Boole’a leży w gruzach.
Matematyczne znaczenie zdania C jest oczywiście takie:
C.
Jeśli będziesz niegrzeczny to możesz ~> nie dostać czekolady
~G~>~C =1
0 0 =1
LUB
D.
Jeśli będziesz niegrzeczny to możesz ~~> dostać czekoladę
~G~~>C =1
0 1 =1 - akt miłości
gdzie:
~~> - naturalne "może", wystarczy jedna prawda, nie jest to operator implikacji odwrotnej ~>, zatem warunek konieczny tu nie zachodzi.
Doskonale tu widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
G=1, ~G=0
C=1, ~C=0
Wniosek:
Podręcznikowe uzasadnienie przypadku w którym mama może wręczyć czekoladę niegrzecznemu dziecku jest matematycznie błędne, bowiem nie ma znaczenia czego mama nie powiedziała. Brak kłamstwa wynika tu z matematyki ścisłej, prawa Kubusia, które nie może być zgwałcone.
Oczywiście z powyższej analizy matematycznej wynika, że wszelkie groźby muszą być kodowane implikacją odwrotną:
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L - implikacja odwrotna bo groźba
Z powyższego mamy definicję obietnicy i groźby …
Definicja obietnicy:
Obietnica = implikacja prosta =>
Jeśli dowolny warunek to nagroda
W=>N
Dobrowolnych obietnic musimy dotrzymywać - stąd implikacja prosta
czyli:
Gwarancja w obietnicy:
W=>N
Jeśli spełnisz warunek nagrody, (W) to na pewno => dostaniesz nagrodę (N) z powodu że spełniłeś warunek nagrody (W), poza tym wszystko może się zdarzyć !
… tylko tyle i aż tyle gwarantuje operator implikacji prostej =>.
Analiza matematyczna obietnicy:
Jeśli spełnisz warunek nagrody to na pewno => dostaniesz nagrodę
W=>N =1 - gwarancja nagrody
1 1 =1
stąd na podstawie definicji operatora implikacji prostej => mamy:
Jeśli spełnisz warunek nagrody to na pewno => nie dostaniesz nagrody
W=>~N =0
1 0 =0
… a jeśli nie spełnię warunku nagrody ?
Prawo Kubusia:
W=>N = ~W~>~N
czyli:
Jeśli nie spełnisz warunku nagrody to możesz ~> nie dostać nagrody
~W~>~N =1
0 0 =1
LUB
Jeśli nie spełnisz warunku nagrody to możesz ~~> dostać nagrodę
~W~~>N =1 - akt miłości
0 1 =1
Możliwość wręczenia nagrody mimo że odbiorca nie spełnił warunku nagrody (akt miłości)
Doskonale widać definicje implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
W=1, ~W=0
N=1, ~N=0
Definicja groźby:
Groźba = implikacji odwrotna ~>
Jeśli dowolny warunek to kara
W~>K
Implikacja odwrotna, bo spełnienie warunku kary jest warunkiem koniecznym do ukarania, o tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.
Gwarancja w implikacji odwrotnej wynika z prawa Kubusia:
W~>K = ~W=>~K
czyli:
Gwarancja w groźbie:
~W=>~K
Jeśli nie spełnisz warunku kary (~W) to na pewno nie zostaniesz ukarany (~K), z powodu że nie spełniłeś warunku kary (~W), poza tym wszystko może się zdarzyć !
… tylko tyle i aż tyle gwarantuje operator implikacji prostej =>.
Porównajmy gwarancję w obietnicy z gwarancją w groźbie, doskonale widać 100% analogię wynikającą z definicji operatora implikacji prostej =>, jednak groźba ~> to fundamentalnie co innego niż obietnica => bowiem matematycznie:
p=>q # p~>q
Analiza matematyczna groźby:
Jeśli spełnisz warunek kary to możesz ~> zostać ukarany
W~>K =1
1 1 =1
LUB na podstawie definicji operatora implikacji odwrotnej~>:
Jeśli spełnisz warunek kary to możesz ~~> nie zostać ukarany
W~~>~K =1 - akt łaski
1 0 =1
Mamy tu prawo do darowania dowolnej kary zależnej od nadawcy (akt łaski)
… a jeśli nie spełnię warunku kary ?
Prawo Kubusia:
W~>K= ~W=>~K
czyli:
Gwarancja w groźbie:
Jeśli nie spełnisz warunku kary, to na pewno => nie zostaniesz ukarany
~W=>~K =1
0 0 =1
… z powodu że nie spełniłeś warunku kary, wszystko inne może się zdarzyć
stąd na podstawie =>:
Jeśli nie spełnisz warunku kary, to na pewno => zostaniesz ukarany
~W=>K =0
0 1 =0
z powodu że nie spełniłeś warunku kary, poza tym wszystko może się zdarzyć.
Tylko tyle i aż tyle gwarantuje operator implikacji odwrotnej W~>K.
Doskonale widać tabele zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
W=1, ~W=0
K=1, ~K=0
W obietnicach i groźbach bardzo dobrze widać sens logiki dodatniej i ujemnej w operatorach implikacji prostej => i odwrotnej ~>.
Definicja logiki dodatniej i ujemnej w operatorach => i ~>:
Implikacja wypowiedziana jest w logice dodatniej jeśli po stronie q nie występuje negacja, inaczej mamy do czynienia z logiką ujemną.
Obietnica:
W=>N = ~W~>~N - prawo zamiany obietnicy => na równoważną groźbę ~>
Obietnica => w logice dodatniej (N) jest równoważna groźbie ~> w logice ujemnej (~N)
Groźba:
W~>K = ~W=>~K - prawo zamiany groźby ~> na równoważną obietnicę =>
Groźba ~> w logice dodatniej (K) jest równoważna obietnicy => w logice ujemnej (~K)
Piękna jest też następująca interpretacja obietnicy i groźby.
Jak wiemy:
~> = <= - pod warunkiem że operator <= będziemy czytać przeciwnie do strzałki jako spójnik „może” z warunkiem koniecznym.
Obietnica:
W=>N - ja tego chcę, biegnę do nagrody
=> czytane zgodnie ze strzałką jako spójnik „musi” z warunkiem wystarczającym
Groźba:
W~>K = W<=K - ja tego nie chcę, uciekam od kary
gdzie:
<= - czytane przeciwnie do strzałki jako spójnik „może” z warunkiem koniecznym
Odróżnianie nagrody od kary to fundament wszelkiego życia. Zwierzątka które tego nie odróżniają, czyli wszystko co się rusza traktują jako nagrodę (ja tego chcę) skazane są na zagładę.
W Australii żyje sobie żółw błotny który na języku ma wyrostek imitujący żywego robaka, ryba która nabierze się na ten podstęp musi zginąć.
11.1 Obietnica
Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N =1 - twarda prawda
Implikacja prosta bo dobrowolnych obietnic musimy dotrzymywać
Spełnienie warunku nagrody jest warunkiem wystarczającym dla otrzymania nagrody
Prawo Kubusia:
W=>N = ~W~>~N
Gwarancja w implikacji jest zawsze operator implikacji prostej:
W=>N
Jeśli spełnię warunek nagrody to na pewno => dostanę nagrodę z powodu że spełniłem warunek nagrody … poza tym wszystko może się zdarzyć.
W obietnicy nadawca ma nadzieję (marzenie), że odbiorca spełni warunek nagrody i będzie mógł wręczyć nagrodę. Jeśli odbiorca nie spełni warunku nagrody to nadawca może dać nagrodę lub nie zgodnie ze swoim „widzi mi się”, czyli wolną wolą.
Po stronie odbiorcy występuje nadzieja (marzenie), że nawet jeśli nie spełni warunku nagrody to może otrzymać nagrodę (akt miłości). Odbiorca może zwolnić nadawcę z obietnicy np. w przypadkach losowych.
Weźmy zdanie od którego zaczęła się przygoda Kubusia z implikacją.
Przykład 11.1.1
Chrystus:
Kto wierzy we mnie będzie zbawiony
W=>Z
Przez kilka miesięcy Kubuś, przybysz ze świata techniki, który nigdy nie słyszał słówka „implikacja” udowadniał Wujowi że powyższe zdanie to równoważność … teraz Kubuś już wie że to implikacja i Wuj jak zwykle miał rację.
Analiza matematyczna:
A.
Kto wierzy we mnie będzie zbawiony
W=>Z =1 - gwarancja zbawienia dla wszystkich wierzących.
1 1 =1
Wiara w Chrystusa jest warunkiem wystarczającym dla zbawienia, zatem implikacja prosta prawdziwa. To ewidentna obietnica zatem na mocy definicji kodujemy implikacja prostą =>.
stąd:
B.
Kto wierzy we mnie nie będzie zbawiony
W=>~Z =0 - oczywisty twardy fałsz
1 0 =0
… a jak kto nie wierzy Panie ?
Prawo Kubusia:
W=>Z = ~W~>~Z
czyli:
C.
Kto nie wierzy we mnie nie będzie zbawiony
~W~>~Z =1
0 0 =1
Brak wiary w Chrystusa jest warunkiem koniecznym dla „nie zbawienia”, zatem implikacja odwrotna prawdziwa. O tym czy będzie to warunek konieczny i wystarczający decyduje Chrystus wedle swojej wolnej woli.
Powyższe zdanie to ewidentna groźba, zatem na mocy definicji groźby musi być kodowana operatorem implikacji odwrotnej ~>. W języku mówionym spójnik „może” ~> jest tu praktycznie zawsze pomijany, bowiem groźba ma być groźbą, im ostrzej wypowiedziana tym większe prawdopodobieństwo że odbiorca nie spełni warunku groźby, a o to przecież chodzi we wszelkich groźbach. Prawo do darowania dowolnej kary gwarantuje tu operator implikacji odwrotnej ~> wynikający z prawa Kubusia, absolutnej świętości w algebrze Boole’a. Jeśli zdanie jest implikacją to musi spełniać prawo Kubusia !
LUB
D.
Kto nie wierzy we mnie ten może być zbawiony
~W~~>Z =1 - akt łaski w groźbie ~W~>~Z = akt miłości w obietnicy W=>Z.
0 1 =1
Doskonale widać definicję zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
W=1, ~W=0
Z=1, ~Z=0
Na podstawie prawa Kubusia mamy:
W=>Z = ~W~>~Z
Przeanalizujmy zatem prawą stronę równania przez definicję implikacji odwrotnej ~> aby sprawdzić czy rzeczywiście powyższa tożsamość zachodzi.
Przykład 11.1.2
Chrystus:
Kto nie wierzy we mnie ten nie będzie zbawiony
Poprawne kodowanie tej groźby jest oczywiście takie:
C.
Kto nie wierzy we mnie nie będzie zbawiony
~W~>~Z =1
1 1 =1
Brak wiary w Chrystusa jest warunkiem koniecznym dla „nie zbawienia”, zatem implikacja odwrotna prawdziwa. O tym czy będzie to warunek konieczny i wystarczający decyduje Chrystus wedle swojej wolnej woli.
Powyższe zdanie to ewidentna groźba, zatem na mocy definicji groźby musi być kodowana operatorem implikacji odwrotnej ~>. W języku mówionym spójnik „może” ~> jest tu praktycznie zawsze pomijany, bowiem groźba ma być groźbą, im ostrzej wypowiedziana tym większe prawdopodobieństwo że odbiorca nie spełni warunku groźby, a o to przecież chodzi we wszelkich groźbach. Prawo do darowania dowolnej kary gwarantuje tu operator implikacji odwrotnej ~> wynikający z prawa Kubusia, absolutnej świętości w algebrze Boole’a. Jeśli zdanie jest implikacją to musi spełniać prawo Kubusia !
LUB
D.
Kto nie wierzy we mnie ten może być zbawiony
~W~~>Z =1 - akt łaski w groźbie ~W~>~Z = akt miłości w obietnicy W=>Z.
1 0 =1
… a jak kto wierzy Panie ?
Prawo Kubusia:
~W~>~Z = W=>Z
czyli:
A.
Kto wierzy we mnie będzie zbawiony
W=>Z =1 - gwarancja zbawienia dla wszystkich wierzących.
0 0 =1
Wiara w Chrystusa jest warunkiem wystarczającym dla zbawienia, zatem implikacja prosta prawdziwa. To ewidentna obietnica zatem na mocy definicji kodujemy implikacja prostą =>.
stąd:
B.
Kto wierzy we mnie nie będzie zbawiony
W=>~Z =0 - oczywisty twardy fałsz
0 1 =0
Doskonale widać tabelę zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
~W=1, W=0
~Z=1, Z=0
Zauważmy, że analiza matematyczna przykładów 11.1.1 i 11.1.2 jest identyczna z dokładnością do każdej literki i każdego przecinka, co jest dowodem poprawności praw Kubusia i całej NTI.
Jak widzimy, przy popranym kodowaniu zdań:
W=>Z = ~W~>~Z
wszyscy wierzący w Chrystusa ludzie mają gwarancję zbawienia, natomiast z niewierzącymi Chrystus może zrobić co mu się podoba wedle swojej wolnej woli i nie ma najmniejszych szans na zostanie kłamcą. Skrajne przypadki to wszyscy niewierzący do piekła albo wszyscy niewierzący do nieba (piękna idea powszechnego zbawienia). Oczywiście Hitlerowi należą się męki piekielne, ale nie wieczne, bo to byłaby porażka Boga.
Wniosek:
Nowa Teoria Implikacji = logika człowieka = logika Boga
Kodowanie gróźb implikacja prostą robi idiotę nie tylko z człowieka ale nawet z Boga.
Chrystus:
Kto nie wierzy we mnie nie będzie zbawiony
~W=>~Z
oczywiście z błędnego kodowania tej groźby operatorem implikacji prostej => wynika, że Chrystus część w niego wierzących może posłać do piekła. Kolejnym bezsensem w kodowaniu tej groźby implikacją prostą jest fakt, iż Chrystus nie ma prawa choćby jednego niewierzącego posłać do nieba, czyli jego wolna wola, prawo do darowania dowolnej kary, leży w gruzach.
Popatrzmy na kompletną analizę matematyczną powyższej groźby, błędnie zakodowaną operatorem implikacji prostej =>:
Kto nie wierzy we mnie nie będzie zbawiony
~W=>~Z =1 - gwarancja piekła dla wszystkich niewierzących w Chrystusa
1 1 =1
stąd:
Kto nie wierzy we mnie na pewno => będzie zbawiony
~W=>Z =0
1 0 =0
Mamy tu zakaz umieszczenia choćby jednego niewierzącego w niebie czyli Chrystus pozbawiony jest wolnej woli (prawa do darowania kary)
... a jak kto wierzy Panie ?
Prawo Kubusia:
~W=>~Z = W~>Z
czyli:
Kto wierzy we mnie ten może ~> być zbawiony
W~>Z =1
0 0 =1
LUB
Kto wierzy we mnie ten może ~~> nie być zbawiony
W~~>~Z =1 - czyli wierzący w Chrystusa mogą trafić do piekła (idiotyzm)
0 1 =1
Zauważmy, że o tym kto jest wierzący a kto nie rozstrzyga Chrystus. Nonsensem jest rozstrzygnięcie „ten człowiek wierzy we mnie”, zatem posyłam go do piekła.
Doskonale widać tabelę zero-jedynkowa implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
~W=1, W=0
~Z=1, Z=0
11.2 Rodzaje obietnic
1.
Obietnica z natychmiastową wykonalnością:
Jeśli zdasz egzamin dostaniesz komputer
E=>K
… a jak nie zdam egzaminu.
Prawo Kubusia:
E=>K = ~E~>~K
czyli jeśli syn nie zda egzaminu to mogę mu tego komputera nie kupić lub kupić i nie mam szans na zostanie kłamcą.
Po egzaminie następuje rozstrzygnięcie
2.
Obietnica z odroczoną wykonalnością:
Kto przyjdzie jutro dostanie gotowca
J=>G
… a jak przyjdę pojutrze ?
J=>G = ~J~>~G
Oczywiście jak ktoś przyjdzie później, byle przed egzaminem to też może dostać gotowca ale nie musi. Po egzaminie ta obietnica traci sens.
3.
Obietnica w której spełnienie warunku obietnicy jest bardzo mało prawdopodobne:
Jeśli wygram milion w TOTKA to kupię ci samochód
W=>S
… a jak nie wygram w TOTKA ?
Prawo Kubusia:
W=>S = ~W~>~S
Jeśli nie wygram w TOTKA to mogę ci nie kupić samochodu lub kupić i nie mam szans na zostanie kłamcą.
11.3 Groźba
Definicja groźby:
Jeśli dowolny warunek to kara
W~>K =1
Implikacja odwrotna bo nadawca może ukarać, ale nie musi.
Spełnienie warunku kary jest warunkiem koniecznym ukarania z powodu spełnienia warunku kary. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.
Gwarancja w groźbie wynika z prawa Kubusia:
W~>K = ~W => ~K
Stąd gwarancja:
~W => ~K
Jeśli nie spełnię warunku kary to na pewno => nie zostanę ukarany z powodu nie spełnienia warunku kary. Poza tym wszystko może sie zdarzyć.
W groźbie nadawca ma nadzieję (marzenie), że odbiorca nie spełni warunku kary i nie będzie musiał karać. Jeśli odbiorca spełni warunek kary to nadawca może wykonać karę lub ją darować zgodnie ze swoim „widzi mi się”, czyli wolną wolą.
Po stronie odbiorcy również występuje nadzieja (marzenie), że nawet jeśli spełni warunek kary to nadawca nie wykona kary (akt łaski). W groźbie decyzję o darowaniu kary podejmuje wyłącznie nadawca, odbiorca nie ma tu nic do powiedzenia.
Przykład:
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L - implikacja odwrotna bo groźba
Brudne spodnie są warunkiem koniecznym lania z powodu brudnych spodni, zatem implikacja odwrotna prawdziwa. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.
W groźbach naturalny spójnik implikacji odwrotnej „może” ~> jest z reguły pomijany bo osłabiałby groźbę. Nie prowadzi to do niejednoznaczności, gdyż definicje groźby i obietnicy są bardzo proste i precyzyjne.
Analiza:
A:
Jeśli ubrudzisz spodnie to możesz ~> dostać lanie
B~>L =1
1 1 =1
LUB
B:
Jeśli ubrudzisz spodnie to możesz nie dostać lania
B ~~> ~L =1 - prawo do darowania kary (akt łaski)
1 0 =1
Zdanie prawdziwe na mocy naturalnego spójnika „może” ~~>, nie jest to implikacja odwrotna.
Nadawca ma prawo do darowania dowolnej kary (akt łaski)
… a jeśli nie ubrudzę spodni ?
B~>L = ~B => ~L - prawo Kubusia
czyli:
C:
Jeśli nie ubrudzisz spodni to na pewno => nie dostaniesz lania
~B => ~L =1 - twarda prawda (gwarancja)
0 0 =1
Na mocy definicji operatora implikacji prostej => mamy:
Jeśli nie ubrudzisz spodni to na pewno => nie dostaniesz lania z powodu czystych spodni. Poza tym wszystko może się zdarzyć. Tylko tyle i aż tyle gwarantuje operator implikacji prostej =>.
stąd:
D:
Jeśli nie ubrudzisz spodni to na pewno => dostaniesz lanie
~B => L =0 - twardy fałsz, zakaz karania niewinnego z powodu czystych spodni
0 1 =1
Doskonale widać tabelę zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
B=1, ~B=0
L=1, ~L=0
Dlaczego zdanie B nie może być implikacja odwrotną ?
Dowód nie wprost:
Załóżmy że zdanie B: B~>~L jest implikacja odwrotną.
Obowiązuje wówczas prawo Kubusia:
B: B~>~L = D: ~B=>L
Zdanie D: jest oczywistym fałszem, zatem zdanie B nie może być implikacją odwrotną prawdziwą.
Prawdziwość zdania B: określa wzór:
(B~~>~L)+(B~>~L) = 1+0 =1
gdzie:
~~> - naturalny spójnik może, wystarczy jedna prawda, nie jest to operator implikacji odwrotnej zatem warunek koniczny tu nie zachodzi.
Jedyne sensowne przejście z operatora implikacji odwrotnej do implikacyjnych AND(*) i OR(+) to odpowiedź na pytanie dziecka „kiedy wystąpi kłamstwo”:
Jeśli ubrudzisz spodnie dostaniesz lanie
Y=B~>L
Jaś:
… tata, a kiedy skłamiesz ?
Y=B~>L = B+~L = ~(~B*L) - dotrzymam słowa
Negujemy dwustronnie:
~Y=~(B~>L) = ~B*L - skłamię
Skłamię (~Y=1), jeśli przyjdziesz w czystych spodniach (~B) i dostaniesz lanie (z powodu czystych spodni !)
~Y=~B*L
Jaś:
… a czy może się zdarzyć że przyjdę w czystych spodniach i dostanę lanie ?
Y=~(~Y) - prawo podwójnego przeczenia, stąd:
Y=~(~B*L)
Nie może się zdarzyć że przyjdziesz w czystych spodniach (~B) i dostaniesz lanie (z powodu czystych spodni)
Y=~(~B*L)
Zauważmy, że ostatnie pytanie Jasia jest mało prawdopodobne bo odpowiedź dostał wcześniej.
11.4 Złożone formy gróźb i obietnic
Powyżej analizowaliśmy obietnice i groźby przy pomocy zero-jedynkowych definicji implikacji prostej (obietnice) i implikacji odwrotnej (groźby). W praktyce po stronie warunku p (także q) może być dowolne zdanie złożone, które analizujemy przy pomocy algebry Boole’a. Istotne jest, aby możliwe było określenie dla jakich parametrów wejściowych warunek p jest spełniony.
Przykład:
Jeśli będziesz bił siostrę lub nie posprzątasz pokoju dostaniesz lanie
B+~P~>L
Gwarancja w implikacji odwrotnej wynika z prawa Kubusia:
(B+~P)~>L = ~(B+~P)=>~L
na podstawie prawa de’Morgana mamy:
~(B+L) = ~B*P=>~L
czyli:
Jeśli nie będziesz bił siostry i posprzątasz pokój to na pewno nie dostaniesz lania
~B*P=>~L
11.5 Wolna wola
Wolna wola człowieka może występować w relacjach:
1.
Człowiek - świat martwy
Przykład:
Jeśli będzie padało to otworzę parasolkę
P=>O
Oczywiście nie może tu być mowy o takich pojęciach jak „akt miłości” czy „akt łaski”.
2.
Człowiek - człowiek
Przykład:
Jeśli zdasz egzamin dostaniesz komputer
E=>K
Najciekawsza jest relacja człowiek-człowiek, w szczególności matematyczna obsługa wszelkich gróźb i obietnic. Tylko i wyłącznie w tym przypadku możemy mówić o matematycznym „akcie miłości” w obietnicy i matematycznym „akcie łaski” w groźbie.
Sztandarowym przykładem implikacji prostej => we wszelkich podręcznikach matematyki do I klasy LO jest dowolna obietnica. Groźby nigdzie nie znajdziemy, bo dzisiejsza matematyka nie potrafi ich poprawnie obsługiwać z powodu braku akceptacji implikacji odwrotnej ~> i praw Kubusia.
Zdanie wypowiedziane:
Jeśli zdasz egzamin dostaniesz komputer
E=>K
Implikacja prosta bo dobrowolnych obietnic musimy dotrzymywać
Gwarancja w implikacji prostej:
E=>K
Jeśli zdasz egzamin to na pewno => dostaniesz komputer z powodu że zdałeś egzamin, poza tym wszystko może się zdarzyć - tylko tyle i aż tyle gwarantuje operator implikacji prostej => w obietnicy.
Analiza matematyczna:
A.
Jeśli zdasz egzamin to na pewno => dostaniesz komputer
E=>K =1
1 1 =1
stąd:
B.
Jeśli zdasz egzamin to na pewno => nie dostaniesz komputera
E=>~K =0 - dobrowolnych obietnic musimy dotrzymywać
1 0 =0
… a jeśli nie zdam egzaminu ?
Prawo Kubusia:
E=>K = ~E~>~K
czyli:
C.
Jeśli nie zdasz egzaminu to możesz ~> nie dostać komputera
~E~>~K =1
0 0 =1
LUB
D.
Jeśli nie zdasz egzaminu to możesz ~~> dostać komputer
~E~~>K =1 - akt miłości
0 1 =1
Doskonale widać definicje implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
E=1, ~E=0
K=1 , ~K=0
Zdanie C to ewidentna groźba. Intencją wypowiadającego jest, aby groźba była groźbą, dlatego praktycznie zawsze pomijany jest spójnik „może”.
Zdanie C przybierze postać.
C.
Jeśli nie zdasz egzaminu to nie dostaniesz komputera
~E~>~K =1
Nie zdanie egzaminu jest warunkiem koniecznym nie dostania komputera, zatem implikacja odwrotna. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.
Oczywiście na mocy definicji groźby:
Jeśli dowolny warunek to kara
W~>K
zatem powyższą groźbę musimy kodować operatorem implikacji odwrotnej ~>:
~E~>~K
Matematyczna wolna wola
Matematyczna wolna wola to operator implikacji odwrotnej ~>
W przypadku nie zdania egzaminu, nadawca może nie dać komputera (C) lub dać komputer (D) co zależy tylko i wyłącznie od jego „widzi mi się” czyli wolnej woli.
W skrajnym przypadku może wyjąć monetę i rzucać:
orzełek - dam komputer
reszka - nie dam komputera
… i nie ma szans na zostanie kłamcą.
„Rzucanie monetą” jest matematyczną wolną wolą, ale nie jest wolną wolą człowieka !
Człowiek rzucający monetą staje się maszyną, wobec której nie można mówić o „wolnej woli”.
Wolna wola człowieka:
Wolna wola człowieka to świadoma decyzja negatywna lub pozytywna, nadawca powinien umieć uzasadnić decyzję.
Decyzja negatywna:
Nie zdałeś egzaminu, nie dostaniesz komputera
oczywiście domyślne jest tu „z powodu że nie zdałeś egzaminu”, nadawca może to rozwinąć np. bo kompletnie się nie uczyłeś itp.
Decyzja pozytywna:
Nie zdałeś egzaminu, dostajesz komputer, bo cie kocham, bo widziałem że się uczyłeś ale miałeś pecha itp.
Oczywiście matematycznie zabronione jest tu uzasadnienie zależne, identyczne jak warunek czyli:
Nie zdałeś egzaminu, dostajesz komputer bo nie zdałeś egzaminu
Matematyczny dowód pkt. 8.1.
Prawdopodobieństwo zajścia „aktu miłości” w obietnicy:
1.
Zauważmy, że nadawca dobrowolnie obiecuje nagrodę, czyli chce tą nagrodę dać. Jeśli zobaczy że odbiorca starał się ale mu nie wyszło to z reguły i tak wręczy nagrodę (akt miłości).
2.
Obietnice „szyte są na miarę” odbiorcy, czyli nadawca nie daje obietnic gdzie spełnienie warunku nagrody jest niemożliwe lub bardzo mało prawdopodobne. Stąd najczęściej odbiorca spełnia warunek nagrody, nadawca wręcza nagrodę … i wszyscy są szczęśliwi.
Oczywiście obietnice to przyszłość której nie znamy, jednak jeśli obietnica wypowiedziana jest między przyjaciółmi, znajomymi czy nawet miedzy osobami obcymi to z reguły jest dotrzymywana. Czyli prawdopodobieństwo iż nagroda znajdzie się u nadawcy jest tu bardzo wysokie, myślę że na poziomie 90% lub wyższym.
Odrębnym zagadnieniem jest składanie fałszywych obietnic wobec wrogów których chcemy zniszczyć, tu podstęp i fałsz jest na porządku dziennym w myśl zasady, wszystkie chwyty dozwolone byleby zniszczyć wroga. Zauważmy jednak, że nasz wróg dał się złapać w pułapkę dzięki temu że spodziewa się nagrody, czyli również doskonale zna symboliczna algebrę Boole’a (algebrę Kubusia)
Każde żywe stworzenie, chce mieć jak najmniej wrogów i jak najwięcej przyjaciół, zatem w powodzi wypowiedzianych obietnic te fałszywe stanowią margines. Zauważmy, że stworzenia żywe żyją w grupach w ramach swojego gatunku. Tu również działa algebra Kubusia, człowiek nie jest tu żadnym wyjątkiem.
Zauważmy, że jeśli przyjmiemy „akt miłości” i „akt łaski” za dobro i wykluczymy linie fałszywe w groźbach i obietnicach to otrzymamy taki wynik:
Dobro-Zło = 4:2
Zatem matematycznie nasz Wszechświat ustawiony jest na dobro.
Weźmy na koniec typowa groźbę.
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L
Gwarancja w implikacji odwrotnej wynika z prawa Kubusia:
B~>L = ~B=>~L
czyli:
Jeśli przyjdziesz w czystych spodniach to na pewno => nie dostaniesz lania
~B=>~L
... z powodu czystych spodni - tylko tyle i aż tyle gwarantuje operator implikacji odwrotnej ~>.
Równanie jest absolutnie genialne:
B~>L = ~B=>~L
Po prawej stronie mamy 100% determinizm, dlatego to jest matematyka ścisła.
Po lewej stronie mamy matematyczna wolną wolę człowieka, czyli jeśli syn przyjdzie w brudnych spodniach to nadawca może go zabić albo darować lanie (gwarancja wolnej woli) ... i nie ma szans na zostanie kłamcą. Tożsamość to tożsamość, z matematyką się nie dyskutuje.
Determinizm filozoficzny i fizyczny
Determinizm w ujęciu filozoficznym i można sprowadzić do jednego zdania:
Jeśli ktokolwiek zna moje myśli z wyprzedzeniem to moja wolna wola leży w gruzach, mój Wszechświat jest zdeterminowany.
Determinizm w ujęciu fizycznym opisuje genialna implikacja. W jednej połówce implikacji zarówno prostej => jak i odwrotnej ~> mamy 100% determinizm (=>), zaś w drugiej "rzucania monetą” ( ~>)
Oczywiście determinizm fizyczny to również równoważność p<=>q, ale ta występuje głównie w matematyce, w świecie rzeczywistym króluje implikacja.
12.0 Obietnice i groźby w równaniach matematycznych
Równoważną do analizy zero-jedynkowej gróźb i obietnic jak wyżej, jest ich analiza przy pomocy równań matematycznych.
12.1 Obietnica w równaniach matematycznych
Zastosujmy świętą zasadę algebry Boole’a „Jak się mówi tak się pisze” doskonale znaną wszystkim dobrym logikom praktykom, ci od cyfrowych układów logicznych..
Definicja obietnicy:
Jeśli dowolny warunek to nagroda
Zasada „Jak się mówi tak się pisze”:
Dostanę nagrodę (N) gdy spełnię warunek nagrody (W) lub gdy nadawca zdecyduje o daniu nagrody.
Wprowadźmy zmienną uznaniową nadawcy:
U=1 – dam nagrodę
U=0 – nie dam nagrody
Równanie obietnicy:
N=W+U
Gdzie:
N=1 – mam nagrodę
N=0 – nie mam nagrody
W=1 – warunek nagrody spełniony
W=0 – warunek nagrody nie spełniony
Zmienna uznaniowa nadawcy:
U=1 – dam nagrodę
U=0 – nie dam nagrody
Analiza równania obietnicy.
A.
W=1 - odbiorca spełnił warunek nagrody.
Równanie obietnicy przybierze wówczas postać:
N = 1+U = 1 – muszę dostać nagrodę.
W przypadku gdy odbiorca spełni warunek nagrody nadawca nie ma wyjścia i musi dać nagrodę, inaczej jest kłamcą. Zauważmy, że nikt nie zmuszał nadawcy do obiecania czegokolwiek, że nadawca obiecał nagrodę z własnej woli, że chce dać nagrodę. Nie ma tu zatem mowy o jakimkolwiek ograniczeniu wolnej woli nadawcy.
B.
W=0 – warunek nagrody nie spełniony
Równanie obietnicy przybiera postać:
N=W+U=0+U=U
Wszystko w rękach nadawcy który podejmuje decyzję o daniu nagrody zgodnie ze swoją wolną wolą, niczym nie ograniczoną.
U=1 – dam nagrodę
U=0 – nie dam nagrody
Przy niespełnionym warunku nagrody (W=0) nadawca może zrobić co mu się podoba i nie zostaje kłamcą. Większość nadawców tak czy siak da nagrodę pod byle pretekstem niezależnym (U=1 - akt miłości), ale nie musi tego robić !
W tym przypadku nadawca może wszystko z maleńkim wyjątkiem:
Nie spełniłeś warunku nagrody (W=0) dostajesz nagrodę, bo nie spełniłeś warunku nagrody (U=W=0)
Równanie obietnicy przybierze tu postać:
N = W+U = 0+0 =0
Zakaz wręczenia nagrody z uzasadnieniem zależnym, czyli z powodu nie spełnienia warunku nagrody (W=0).
Nikt nie może robić z człowieka idioty, przede wszystkim matematyka.
Przykład:
Jeśli zdasz egzamin dostaniesz komputer
E=>K
Równanie obietnicy:
K = W+U
Jeśli egzamin zdany (W=1) to:
K=1+U =1 - gwarancja otrzymania komputera.
Zmienna uznaniowa nadawcy jest tu bez znaczenia.
Jeśli egzamin nie zdany (W=0) to:
K=W+U = 0+U =U
Wszystko w rękach nadawcy:
U=1 - dam komputer
U=0 - nie dam komputera
Akt miłości nie zaszedł:
U=0
Nie zdałeś egzaminu (W=0), nie dostajesz komputera ... bo kompletnie się nie uczyłeś (U=0)
Równanie obietnicy:
K=W+U = 0+0 =0 - nie mam komputera
Akt miłości zaszedł:
U=1
Nie zdałeś egzaminu (W=0), dostajesz komputer ... bo widziałem że się starałeś ale miałeś pecha, bo cię kocham, bo tak czy siak zamierzałem kupić ci komputer itp. (U=1 dowolne uzasadnienie niezależne)
Równanie obietnicy:
N=W+U=0+1=1 – mam komputer dzięki dobremu sercu nadawcy (akt miłości)
Nadawca może wręczyć nagrodę pod byle pretekstem, ale nie może wręczyć nagrody z uzasadnieniem zależnym identycznym jak warunek nagrody.
Nie zdałeś egzaminu (W=0), dostajesz komputer ... bo nie zdałeś egzaminu (U=W=0).
Równanie obietnicy:
N=W+U=0+0=0 – zakaz wręczania nagrody z uzasadnieniem zależnym, czyli z powodu „nie zdania egzaminu” (W=U=0)
Nikt nie może robić z człowieka idioty, przede wszystkim matematyka.
12.2 Groźba w równaniach matematycznych
Definicja groźby:
Jeśli dowolny warunek to kara
Zasada „Jak się mówi tak się pisze”:
Zostanę ukarany (K) gdy spełnię warunek kary (W) i nadawca zdecyduje o ukaraniu (U).
W groźbie nadawca może skorzystać z aktu łaski ale nie musi tego robić. Przyjmijmy zmienna uznaniową U, którą nadawca może ustawić na dowolną wartość.
Matematyczne równanie groźby:
K=W*U
Gdzie:
K=1 – zostanę ukarany
K=0 – nie zostanę ukarany
W=1 – warunek kary spełniony
W=0 – warunek kary nie spełniony
Nadawca może ustawić zmienną uznaniową na dowolną wartość:
U=1 – ukarać
U=0 – nie karać (akt łaski)
Akt łaski w groźbie zajdzie wtedy, gdy odbiorca spełni warunek kary zaś nadawca odstąpi od wykonania kary (U=0 - akt łaski).
Analiza równania groźby.
K=W*U
A.
W=0 – warunek kary nie spełniony
Równanie groźby przybierze wówczas postać:
K=W*U=0*U=0 – zakaz karanie jeśli warunek kary nie zostanie spełniony.
Zauważmy, że nadawca nie ma tu nic do gadania. Może sobie ustawiać swoją zmienną długo i namiętnie na U=1 (karać) ... a i tak ma zakaz karania z powodu nie spełnienia warunku kary.
B.
W=1 – warunek kary spełniony
Równanie groźby przybiera postać:
K=W*U=1*U=U
Wszystko w rękach nadawcy który może zrobić co mu się podoba wedle wolnej woli:
U=1 – karać
U=0 – nie karać
Przykład:
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L
Ubrudziłeś spodnie (W=1), nie dostaniesz lania ... bo samochód cię ochlapał, bo dziś mam dobry humor, bo cię kocham itp. (U=0 - dowolne uzasadnienie niezależne)
K=W*U=1*0=0 - nie zostałem ukarany, bo nadawca zastosował akt łaski
Zauważmy, że nadawca może robić co mu się podoba z małym wyjątkiem, nie może darować kary z uzasadnieniem zależnym identycznym jak warunek kary.
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L
Ubrudziłeś spodnie (W=1), nie dostajesz lania, bo ubrudziłeś spodnie (U=W=1).
Równanie groźby:
K=W*U=1*1=1 – kara musi być wykonana, zakaz darowania kary z uzasadnieniem zależnym
Nikt nie może robić z człowieka idioty, przede wszystkim matematyka.
Koniec 2010-03-14
|
|
Powrót do góry |
|
|
|
|
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach
|
fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
|