Forum ŚFiNiA Strona Główna ŚFiNiA
ŚFiNiA - Światopoglądowe, Filozoficzne, Naukowe i Artystyczne forum - bez cenzury, regulamin promuje racjonalną i rzeczową dyskusję i ułatwia ucinanie demagogii. Forum założone przez Wuja Zbója.
 
 FAQFAQ   SzukajSzukaj   UżytkownicyUżytkownicy   GrupyGrupy   GalerieGalerie   RejestracjaRejestracja 
 ProfilProfil   Zaloguj się, by sprawdzić wiadomościZaloguj się, by sprawdzić wiadomości   ZalogujZaloguj 

Kwintesencja algebry Kubusia

 
Napisz nowy temat   Odpowiedz do tematu    Forum ŚFiNiA Strona Główna -> Metodologia / Forum Kubusia
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 34685
Przeczytał: 26 tematów

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Czw 14:19, 05 Wrz 2024    Temat postu: Kwintesencja algebry Kubusia

Kwintesencja algebry Kubusia
Algebra Kubusia: Czy podbije serca ziemskich matematyków?

2024-09-14 Premiera

Autor:
Kubuś ze 100-milowego lasu




I.
Link do „Kwintesencji algebry Kubusia” w pdf (Stron: 219)
[link widoczny dla zalogowanych]
Kod:
https://www.dropbox.com/scl/fi/uivxh4c74kaaiabg3e5ui/Algebra-Kubusia-Kwintesencja.pdf?rlkey=2hj7bsiq1e4ubn53rqabdwc9j&dl=0


Link do „Kwintesencji algebry Kubusia” na forum śfinia:
http://www.sfinia.fora.pl/forum-kubusia,12/kwintesencja-algebry-kubusia,26413.html#812849

II.
Pełna wersja "Algebra Kubusia - matematyka języka potocznego" (Stron: 1366):
[link widoczny dla zalogowanych]
Kod:
https://www.dropbox.com/s/hy14p42kup25c32/Kompendium%20algebry%20Kubusia.pdf?dl=0


Link do pełnej wersji algebry Kubusia na forum śfinia:
http://www.sfinia.fora.pl/forum-kubusia,12/algebra-kubusia-matematyka-jezyka-potocznego,21937.html#680041

Spis treści:
Część I Operatory jednoargumentowe
Część II Tajemnice operatorów jednoargumentowych
Część III Operatory dwuargumentowe
Część IV Kompendium algebry Kubusia. Część I
Część IV Kompendium algebry Kubusia. Część II
Część V Algebra Kubusia w bramkach logicznych

Części kwintesencji algebry Kubusia:

W „Kwintesencji algebry Kubusia” zachowano oryginalną numerację rozdziałów z pełnej wersji, dzięki czemu łatwo dostępna jest wiedza rozszerzona pominięta w kwintesencji, w szczególności mamy łatwy dostęp do dużej ilości przykładów z języka potocznego, które pominięto w kwintesencji.

Puenta kwintesencji algebry Kubusia to prawo Grzechotnika (1.5.4, 1.6.1, 20.3.1, 20.4.2, 11.8.1)
Prawo Grzechotnika:
Aktualna, ziemska algebra Boole'a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.
Wniosek: Miejsce aktualnej algebry Boole’a jest w koszu na śmieci.

I. (1.0-1.7)
Pierwsza część
kwintesencji to szczegółowe omówienie operatorów jednoargumentowych
Operatory jednoargumentowe to kwintesencja działania wszelkich operatorów logicznych definiowanych spójnikami „i”(*) i „lub”(+) z języka potocznego 5-cio latka.
Operatory jednoargumentowy to zaledwie cztery operatory różne na mocy definicji ## (pkt.1.3.2)
Przy dwóch argumentach mamy już 16 różnych na mocy definicji ## operatorów (pkt. 1.16)

II. (20.0-20.9)
Druga część kwintesencji to „Tajemnice operatorów jednoargumentowych” gdzie między innymi zaprezentowano zero-jedynkowe definicje operatorów jednoargumentowych wraz z wyjaśnieniem co znaczą poszczególne zera i jedynki wewnątrz tych operatorów.

III. (1.8-1.17)
Trzecia część kwintesencji to operatory dwuargumentowe gdzie zaprezentowano:
Nowatorską aksjomatykę minimalną algebry Boole’a (pkt. 1.8.1)
Definicję operatora „lub”(|+) (pkt. 1.12.1) oraz operatora „i”(|*) (pkt. 1.13.1)
Opis dowolnej tabeli zero-jedynkowej równaniami algebry Boole’a (pkt. 1.14)
Tabelę wszystkich możliwych operatorów dwuargumentowych (pkt. 1.16.2)

IV. (2.0-2.17)
Czwarta część kwintesencji to „Kompendium algebry Kubusia”, czyli precyzyjne definicje elementarnych spójników implikacyjnych opisujących zdania warunkowe „Jeśli p to q”:
~~> - zdarzenie możliwe lub element wspólny zbiorów
=> - warunek wystarczający
~> - warunek konieczny
Kolejna część Kompendium to precyzyjne zdefiniowanie zdań warunkowych „Jeśli p to q” podlegających pod algebrę Kubusia w postaci algorytmu Puchacza (punkt 2.11).
W dalszej części omówiono cztery podstawowe operatory implikacyjne:
2.12.1 Operator implikacji prostej p||=>q
2.13.1 Operator implikacji odwrotnej p||~>q
2.14.1 Operator równoważności p|<=>q
2.15.1 Operator chaosu p||~~>q

V. (11.0-11.8)
Piątą część kwintesencji dedykuję matematykom znającym teorię bramek logicznych.
„Algebra Kubusia w bramkach logicznych” to przełożenie języka potocznego człowieka na teorię bramek logicznych w skali 1:1. Oznacza to, że każde zdanie języka potocznego podlegające pod algebrę Kubusia możemy opisać teorią bramek logicznych. Algebra Kubusia jest więc w 100% weryfikowalna w laboratorium techniki cyfrowej np. na I roku elektroniki Politechniki Warszawskiej (tu byłem, rok 1975, pierwszy przyzwoity mikroprocesor i8080 to rok 1974).


Wstęp:

Kwintesencja algebry Kubusia to wybrane fragmenty z pełnej wersji algebry Kubusia konieczne i wystarczające dla jej zrozumienia.
Dzięki zachowaniu numeracji rozdziałów z pełnej wersji AK, aktywne są wszelkie odnośniki z kwintesencji tzn. dowolny odnośnik może być łatwo odnaleziony.
Kwintesencja sugeruje streszczenie algebry Kubusia na kilku stronach.
Niestety to jest fizycznie niemożliwe bo 100% definicji w algebrze Kubusia jest innych niż w jakiejkolwiek logice matematycznej ziemskich matematyków.
Kwintesencję (stron 219) napisałem po to, by nie zmuszać czytelników do czytania pełnej wersji algebry Kubusia (stron 1366)
Myślę, że kwintesencja powinna być zrozumiała nawet dla logicznie myślącego ucznia I klasy LO, bowiem z definicji nie ma tu nic, co byłoby sprzeczne z algebrą Kubusia której naturalnym ekspertami są wszystkie 5-cio latki i humaniści.

Algebrę Kubusia wyssaliśmy z mlekiem matki i nie musimy się jej uczyć - wszyscy jesteśmy jej ekspertami w praktyce bo po prostu pod nią podlegamy nie mając żadnych szans, by się od niej uwolnić.
Ekspertami algebry Kubusia w praktyce jesteśmy wszyscy, od 5-cio latka poczynając na ziemskim matematyku kończąc - ten ostatni póki co nie wie, że w komunikacji z 5-cio latkami i humanistami używa tylko i wyłącznie algebry Kubusia.
Mam nadzieję, że to się wkrótce zmieni, bowiem nie jest możliwe by matematycy na poziomie rozumiejący teorię bramek logicznych (są tacy) nie załapali algebry Kubusia mającej 100% pokrycie w bramkach logicznych w przełożeniu 1:1, czego dowód znajdziemy w punkcie 11.0.

Matematycznie zachodzi tożsamość:
Algebra Kubusia = Biblia, napisana językiem zrozumiałym dla prostego człowieka.
Oznacza to, że 100% zdań w Biblii dotyczących obietnic i gróźb Chrystusa jest zgodnych z algebrą Kubusia tzn. żadne zdanie w Biblii w tym zakresie nie jest sprzeczne z AK.
Dowód tego faktu znajdziemy w punktach 3.6 i 4.6.

Podsumowując:
Matematyczna wersja algebry Kubusia jest tak samo potrzebna do szczęścia 5-cio latkowi i humaniście jak gramatyka języka polskiego, której nigdy nie znałem i nie znam, a mimo to po polsku piszę. Pewne elementy algebry Kubusia można nauczać już w przedszkolu w formie zabawy, bowiem 5-cio latki doskonale ją znają nie wiedząc, że to jest matematyka ścisła opisująca otaczającą nas rzeczywistość.


Algebra Kubusia: Czy podbije serca matematyków?

Motto Rafała3006:
Napisać algebrę Kubusia w taki sposób, by ziemski matematyk był w stanie ją zrozumieć i zaakceptować, mimo iż na starcie nie zna ani jednej definicji obowiązującej w AK.


Rozszyfrowanie algebry Kubusia to 19 lat dyskusji na forum filozoficznym w Polsce, to około 37 000 postów napisanych wyłącznie w temacie "Logika matematyczna"
Algebra Kubusia to podłożenie matematyki pod język potoczny człowieka, czyli coś, o czym matematycy marzą od 2500 lat (od Sokratesa).
Krótką historię rozszyfrowania algebry Kubusia znajdziemy w punkcie 37.0

Weryfikowalność algebry Kubusia

Twardy dowód poprawności czysto matematycznej algebry Kubusia:
Algebra Kubusia ma 100% potwierdzenie w teorii bramek logicznych w przełożeniu 1:1 tzn. pod każde zdanie prawdziwe na gruncie AK możemy podłożyć teorię bramek logicznych.
Wniosek:
Algebra Kubusia jest weryfikowalna w laboratorium układów cyfrowych (pkt. 11.0)

Z racji wykształcenia (elektronika na Politechnice Warszawskiej, rok 1980) jestem ekspertem bramek logicznych od zawsze, mając pewność absolutną, że algebra Kubusia jest w 100% zgodna z teorią bramek logicznych - gdybym tej pewności nie miał, to o żadnej logice bym nie dyskutował.

W ciągu 19 lat dyskusji w temacie logiki matematycznej dyskutowałem z wieloma matematykami z najwyższej półki (Volrath, Macjan, Fiklit)
Na szczególną uwagę zasługuje tu Fiklit, prawdopodobnie wykładowca logiki matematycznej który poświęcił 7 lat życia na dyskusję ze mną w temacie logiki matematycznej.

Kluczowi przyjaciele algebry Kubusia:

Kluczowi przyjaciele algebry Kubusia bez których ta nowatorska teoria matematyczna nie mogłaby zaistnieć to:
1.
Irbisol, fanatyk KRZ, odwieczny wróg Nr. 1 algebry Kubusia od 15 lat usiłujący ją obalić.
Dzięki Irbisolu – bez ciebie algebra Kubusia nie mogłaby zaistnieć.
2.
Fiklit, prawdopodobnie wykładowca ziemskiej logiki matematycznej, dzięki któremu w ciągu 7-letniej dyskusji poznałem tok myślenia w temacie „Logika matematyczna” współczesnych, ziemskich matematyków.
Dzięki Fiklicie – bez ciebie algebra Kubusia nie mogłaby zaistnieć

Historia dyskusji z Fiklitem:

Tu jest post wejściowy Fiklita na forum Yrizona, będący dowodem jego profesjonalizmu w temacie ziemskiej logiki matematycznej:
Wysłany: Śro 17:37, 12 Wrz 2012
http://www.sfinia.fora.pl/forum-kubusia,12/finalowa-dyskusja-wszech-czasow-z-fiklitem-na-yrizonie-c-i,6149-175.html#181230

W kolejnym swoim poście Fiklit napisał:
Wysłany: Pią 0:23, 14 Wrz 2012
http://www.sfinia.fora.pl/forum-kubusia,12/finalowa-dyskusja-wszech-czasow-z-fiklitem-na-yrizonie-c-i,6149-200.html#181262
@Fiklit
Dag, dzięki, ale na razie nie będę czytał wcześniejszych prac, bo zauważyłem, że jest ich kilka wersji i już na wstępie nie wszystko dokładnie rozumiem. Dlatego wolę jak mi Kubuś robi indywidualny wykład, bo mam możliwość na bieżąco wyjaśniać pojawiające się wątpliwości.

W tym wytłuszczonym widać, że Fiklit już w drugim swoim poście na Yrizonie zadeklarował chęć bliższego poznania algebry Kubusia - nasza dyskusja trwała 7 lat.

Ile postów napisał Fiklit na forum śfinia w dyskusji ze mną na temat logiki matematycznej?
Fiklit: Dołączył: 24 Wrz 2012, Posty: 4197
Początek dyskusji z Fiklitem to forum Yrizona o czym jest wyżej.
Do fanatyków KRZ: Wystarczy?

Podsumowując:
Czy gdyby algebra Kubusia była bez sensu, jak twierdzą fanatycy KRZ, to czy Fiklit dyskutowałby ze mną 7 lat pisząc 4197 postów w temacie logiki matematycznej?

Ostatni post Fiklita:
Wysłany: Pon 10:37, 25 Mar 2019
http://www.sfinia.fora.pl/forum-kubusia,12/gowno-logika-ziemian-zwana-klasycznym-rachunkiem-zdan,11921-1175.html#441721
@Fiklit
Czy mamy szanse to nie wiem, ale biorąc pod uwagę postępy AK w podboju świata, to można pokusić się o nieśmiałe stwierdzenie, że trzymamy się całkiem dobrze.
Rafał, ty nie potrafisz tłumaczyć. Do tego potrzeba choć trochę umiejętności zrozumienia czego druga osoba nie rozumie. Ty nawet nie rozumiesz na czym polega problem ze zrozumieniem "rzucania monetą" i nie jesteś w stanie znaleźć rozwiązania.


Dowód iż w logice matematycznej mamy „rzucanie monetą” na poziomie matematyki ogólnej (bez żadnych przykładów) jest trywialny i jest on dostępny w aktualnej wersji algebry Kubusia:
http://www.sfinia.fora.pl/forum-kubusia,12/algebra-kubusia-matematyka-jezyka-potocznego,21937.html#680051
2.12.1 Operator implikacji prostej p||=>q
2.13.1 Operator implikacji odwrotnej p||~>q
Przykro mi Fiklicie, że nie zdołałem ci wytłumaczyć algebry Kubusia w sposób zrozumiały.
Powodem tego jest fakt, że 100% definicji w obszarze logiki matematycznej mamy innych, chodzi tu przede wszystkim o biegłą znajomość teorii bramek logicznych (tu jestem ekspertem) gdzie brak w logice matematycznej ziemskich matematyków pojęcia funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest powodem jej wewnętrznej sprzeczności.

Co dalej z algebrą Kubusia?
Czy ma szansę zaistnieć w ziemskiej matematyce?
Mam nadzieję że tak, choć nie wykluczam, że umrze razem ze mną.

Jakie są perspektywy propagowania algebry Kubusia wśród matematyków w Polsce?
Nie wiem.
Wiem tylko, że fanatycy KRZ nigdy nie zaakceptują algebry Kubusia.
Moim zdaniem należy pozwolić im umrzeć w spokoju bo nic ich do algebry Kubusia nie przekona.

1.
Twierdzenia matematyczne uważane są za prawdziwe, ponieważ w niczyim interesie nie leży, by uważać je za fałszywe.
Monteskiusz.
2.
Klasyczny Rachunek Zdań uważany jest za prawdziwy, ponieważ w niczyim interesie nie leży, by uważać go za fałszywy
Rafał3006


Algebra Kubusia to logika matematyczna przyszłych pokoleń matematyków.
Liczę na matematyków znających biegle teorię bramek logicznych, są tacy np. Volrath (pkt. 22.0)

Jakie są perspektywy propagowania algebry Kubusia wśród matematyków za granicą?
Nie wiem.
Tu największą moją przeszkodą jest brak znajomości j. angielskiego (jedynie tłumacz google wchodzi w rachubę) oraz brak wiedzy gdzie potencjalnych zainteresowanych szukać (nie jestem matematykiem)


Ostatnio zmieniony przez rafal3006 dnia Pon 18:21, 16 Wrz 2024, w całości zmieniany 61 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 34685
Przeczytał: 26 tematów

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Sob 11:34, 14 Wrz 2024    Temat postu:

Kwintesencja algebry Kubusia
Część I Operatory jednoargumentowe

Spis treści
1.0 Nowa algebra Boole’a 2
1.1 Definicje elementarne algebry Boole'a 2
1.1.1 Definicja negacji 3
1.1.2 Negator dwukierunkowy w bramkach logicznych 4
1.2 Fundamenty algebry Boole'a 5
1.2.1 Definicja funkcji logicznej algebry Boole'a 5
1.2.2 Prawo negacji funkcji logicznej Y 7
1.2.3 Ogólna definicja logiki matematycznej 7
1.3 Definicja funkcji logicznej jednoargumentowej Y=x 8
1.3.1 Definicja operatora logicznego jednoargumentowego Y|=x 8
1.3.2 Tabela wszystkich możliwych operatorów jednoargumentowych 8
1.4 Prawa Prosiaczka 9
1.4.1 Przykład działania praw Prosiaczka na gruncie fizyki 10
1.4.2 Zasady kodowania zdań twierdzących w świecie żywym 11
1.4.3 Zasady kodowania zdań twierdzących w świecie martwym 12
1.5 Funkcje Y=x i operatory Y|=x jednoargumentowe 12
1.5.1 Definicja funkcji transmisji Y=p i operatora transmisji Y|=p 12
1.5.2 Definicja funkcji negacji Y=~p i operatora negacji Y|=~p 13
1.5.3 Relacja matematyczna między operatorami Y|=p a Y|=~p 14
1.5.4 Prawo Grzechotnika dla funkcji jednoargumentowych 16
1.5.5 Prawo Sokoła 16
1.6 Prawo Grzechotnika na przykładzie zrozumiałym dla 5-cio latka 16
1.6.1 Dowód prawa Grzechotnika na poziomie przedszkola 20
1.6.2 Prawo Sokoła 21
1.6.3 Funkcja logiczna Y zmiennej binarnej p 21
1.6.4 Funkcja logiczna Y stałej binarnej p 21
1.7 Prawo Puchacza dla zdań twierdzących jednoargumentowych 21
1.7.1 Jak działa prawo Puchacza? 22



Wstęp.

Operatory jednoargumentowe to kwintesencja działania wszelkich operatorów logicznych definiowanych spójnikami „i”(*) i „lub”(+) z języka potocznego 5-cio latka.
Zrozumienie istoty działania operatorów jednoargumentowych jest warunkiem koniecznym dla zrozumienia istoty działania wszelkich operatorów logicznych n-argumentowych definiowanych spójnikami „i”(*) i „lub”(+)
Operatory jednoargumentowy to zaledwie cztery operatory różne na mocy definicji ## (pkt.1.3.2)
Przy dwóch argumentach mamy już 16 różnych na mocy definicji ## operatorów (pkt. 1.16)

1.0 Nowa algebra Boole’a

Algebra Kubusia to matematyczny opis języka potocznego (w tym matematyki i fizyki).

Algebra Kubusia zawiera w sobie nową algebrę Boole’a mówiącą wyłącznie o spójnikach „i”(*) oraz „lub”(+) z języka potocznego człowieka.
Innymi słowy:
Aktualna algebra Boole’a w ogóle nie zajmuje się kluczową i najważniejszą częścią logiki matematycznej, czyli obsługą zdań warunkowych „Jeśli p to q” definiowanych warunkami wystarczającymi => i koniecznymi ~>.

Definicja nowej algebry Boole’a na poziomie znaczków:
Nowa algebra Boole’a to algebra dwuelementowa akceptująca zaledwie pięć znaczków:
1 = prawda
0 = fałsz
„nie”(~) - negacja (zaprzeczenie), słówko „NIE” w języku potocznym
Spójniki logiczne zgodne z językiem potocznym:
„i”(*) - spójnik „i”(*) w języku potocznym
„lub”(+) - spójnik „lub”(+) w języku potocznym

Dlaczego nowa algebra Boole’a?
1.
W algebrze Kubusia zachodzi tożsamość znaczków:
Spójnik „i”(*) z języka potocznego = bramka AND (*) w technice = koniunkcja (*) w matematyce
Spójnik „lub”(+) z języka potocznego = bramka OR(+) w technice = alternatywa (+) w matematyce
Dowód tego faktu na poziomie 5-cio latka znajdziemy w punkcie 1.9 (sterowanie windą).
2.
Stara algebra Boole’a nie zna kluczowych dla logiki matematycznej pojęć: logika dodatnia (bo p) i logika ujemna (bo ~p). Definicję znajdziemy w pkt. 1.1.1
3.
Stara algebra Boole'a jest wewnętrznie sprzeczna na poziomie funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y), co udowodnimy za chwilkę (pkt. 1.5.4 i 1.7)

1.1 Definicje elementarne algebry Boole'a

1 = prawda
0 = fałsz

Gdzie:
1##0
Prawda (1) jest różna na mocy definicji ## od fałszu (0)

Matematyczny związek wartości logicznych 1 i 0:
1 = ~0
0 = ~1
(~) - negacja

Innymi słowy:
Prawda (1) to zaprzeczenie (~) fałszu (0)
Fałsz (0) to zaprzeczenie (~) prawdy (1)

Definicja stałej binarnej:
Stała binarna to symbol mający w osi czasu stałą wartość logiczną (0 albo 1)

Pani w przedszkolu:
Pójdziemy do kina (K) lub nie pójdziemy do kina (~K)
Y = K+~K =1 - zdanie zawsze prawdziwe
Pójdziemy do kina (K) i nie pójdziemy do kina (~K)
Y = K*~K =0 - zdanie zawsze fałszywe
Gdzie:
Y - stała binarna

Definicja zmiennej binarnej:
Zmienna binarna to symbol, mogący w osi czasu przyjmować wyłącznie dwie wartości logiczne 0 albo 1.

Zachodzi tożsamość pojęć:
zmienna binarna = zmienna dwuwartościowa

1.1.1 Definicja negacji

Zero-jedynkowa tabela prawdy:
Zero-jedynkowa tabela prawdy to zapis wszystkich możliwych wartościowań zmiennych binarnych w postaci tabeli zero-jedynkowej.

W szczególnym przypadku symbol w nagłówku kolumny może być stałą binarną gdy w kolumnie są same jedynki albo same zera.
Kod:

DN
Definicja negacji:
   p # ~p
A: 1 #  0
B: 0 #  1
   1    2
Gdzie:
# - różne w znaczeniu iż dowolna strona # jest negacją drugiej strony

Definicja znaczka w logice matematycznej:
Znaczek w logice matematycznej to symbol zdefiniowany odpowiednią tabelą zero-jedynkową

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony
p#~p
Dowodem jest tu definicja negacji DN.

Definicja zmiennej binarnej w logice dodatniej (bo p):
Zmienna binarna p wyrażona jest w logice dodatniej (bo p) wtedy i tylko wtedy gdy nie jest zanegowana.
Inaczej mamy do czynienia ze zmienną binarną w logice ujemnej (bo ~p)

Zauważmy, że w definicji negacji DN symbole p i ~p są zmiennymi binarnymi.
Dowód:
W osi czasu (kolumna A1B1) może zajść przypadek, że zmienna binarna p przyjmie wartość logiczną 1 (A1) albo wartość logiczną 0 (B1).
W osi czasu (kolumna B2A2) może zajść przypadek, że zmienna binarna ~p przyjmie wartość logiczną 1 (B2) albo wartość logiczną 0 (A2)

Stąd mamy:
Definicja osi czasu w logice matematycznej
W dowolnej tabeli zero-jedynkowej oś czasu to zero-jedynkowa zawartość kolumny opisanej symbolem nad tą kolumną.

W logice matematycznej odpowiednikiem układu Kartezjańskiego są wykresy czasowe.
Dowód na przykładzie (strona 5):
[link widoczny dla zalogowanych]

1.1.2 Negator dwukierunkowy w bramkach logicznych

W technice cyfrowej znaczek różne # o definicji jak wyżej jest odpowiednikiem dwukierunkowego negatora „O”.
Zachodzi tożsamość znaczków: # = O
Kod:

Realizacja dwukierunkowego negatora „O” w bramkach logicznych
              -----   ~p=~(p)
p --x-------->| ~ |o-x------> ~p
    |         -----  |
    |                |
    | p=~(~p) -----  |
    -<-------o| ~ |<-x------- ~p
              -----
Gdzie:
„O” - symbol dwukierunkowego negatora o budowie jak wyżej
"o"(~) - symbole negacji w technice „o” i w języku potocznym „~”
--->| - wejście bramki logicznej negatora (~)
|o--> - wyjście bramki logicznej negatora (~)
W świecie rzeczywistym musi tu być negator z otwartym kolektorem (OC)
na przykład typu SN7406. Wyjście OC musi być podparte rezystorem do Vcc.

W świecie rzeczywistym podajemy sygnały cyfrowe {0,1} na wejściu negatora p albo ~p obserwując co jest na jego wyjściu. Wszystko musi być zgodne z definicją DN.

Matematyczne związki między p i ~p:
a)
Dowolna strona znaczka # jest negacją drugiej strony
p#~p
b)
Prawo podwójnego przeczenia:
p=~(~p) - logika dodatnia (bo p) to zanegowana logika ujemna (bo ~p)
c)
Prawo zaprzeczenia logiki dodatniej (bo p):
~p=~(p) - logika ujemna (bo ~p) to zanegowana logika dodatnia (bo p)

Dowód w rachunku zero-jedynkowym:
Kod:

Matematyczne związki w definicji negacji:
   p ~p ~(~p) ~(p)
A: 1  0    1    0
B: 0  1    0    1
   1  2    3    4

Tożsamość kolumn 1=3 jest dowodem formalnym prawa podwójnego przeczenia:
p=~(~p)
Tożsamość kolumn 2=4 jest dowodem formalnym prawa negacji logiki dodatniej (bo p):
~p=~(p)

Uwaga:
Budowa dwukierunkowego transmitera w bramkach logicznych będzie identyczna jak wyżej lecz z układem SN7407 w miejsce układu SN7406.

1.2 Fundamenty algebry Boole'a

Kluczowe znaczki algebry Boole’a to definicje spójników „i”(*) i „lub”(+) z języka potocznego człowieka.
Kod:

Definicja dwuargumentowego spójnika „i”(*):
   p* q  Y=p*q
A: 1* 1  1
B: 1* 0  0
C: 0* 1  0
D: 0* 0  0
Y=1 <=> p=1 i q=1
inaczej:
Y=0

Kod:

Definicja dwuargumentowego spójnika „lub”(+):
   p+ q  Y=p+q
A: 1+ 1  1
B: 1+ 0  1
C: 0+ 1  1
D: 0+ 0  0
Y=1 <=> p=1 lub q=1
inaczej:
Y=0

Gdzie:
<=> - wtedy i tylko wtedy

1.2.1 Definicja funkcji logicznej algebry Boole'a

Definicja wyrażenia algebry Boole'a:
Wyrażenie algebry Boole'a f(x) to zmienne binarne połączone spójnikami "i"(*) i "lub"(+)

Definicja funkcji logicznej algebry Boole'a:
Funkcja logiczna Y algebry Boole'a to zmienna binarna odzwierciedlająca binarne zmiany wyrażenia algebry Boole'a f(x) w osi czasu.

W technice funkcja algebry Boole'a to zwyczajowo duża litera Y.
Przykład:
f(x) - zapis ogólny dowolnie skomplikowanego i nieznanego wyrażenia algebry Boole’a
f(x)=p*q+~p*~q - definicja konkretnego wyrażenia algebry Boole’a
Stąd na mocy definicji funkcji logicznej mamy:
Y = f(x) = p*q+~p*~q
Zapis tożsamy:
Y = p*q+~p*~q

W szczególnym przypadku funkcja logiczna Y może być stałą binarną, gdy w kolumnie opisującej symbol Y są same jedynki albo same zera.

Ogólna definicja dziedziny D:
Pojęcie ~x jest uzupełnieniem dla pojęcia x do wspólnej dziedziny D oraz pojęcia x i ~x są rozłączne
x+~x =D =1 - zdanie zawsze prawdziwe (stała binarna)
x*~x =[] =0 - zdanie zawsze fałszywe (stała binarna)

Definicja dziedziny w zbiorach:
Zbiór ~p jest uzupełnieniem zbioru p do wspólnej dziedziny D oraz zbiory p i ~p są rozłączne.
Czyli:
Y = p+~p =D =1 - zdanie zawsze prawdziwe (stała binarna)
Y = p*~p =[] =0 - zdanie zawsze fałszywe (stała binarna)
W algebrze Kubusia zdanie zawsze prawdziwe (Y=1) oraz zdanie zawsze fałszywe (Y=0) to bezużyteczne śmieci zarówno w matematyce, jak i w języku potocznym

Dowód na przykładzie.
Rozważmy dwa zbiory:
TP - zbiór trójkątów prostokątnych (TP)
~TP - zbiór trójkątów nieprostokątnych (~TP)
Wspólna dziedzina:
ZWT - zbiór wszystkich trójkątów

Definicja dziedziny w zbiorach:
Zbiór ~TP jest uzupełnieniem zbioru TP do wspólnej dziedziny ZWT oraz zbiory TP i ~TP są rozłączne w dziedzinie ZWT.

Czyli:
Twierdzenie T1:
Dowolny trójkąt jest prostokątny (TP) lub nie jest prostokątny (~TP)
Y = TP+~TP = ZWT =1 - zdanie zawsze prawdziwe (stała binarna)

Twierdzenie T2:
Dowolny trójkąt jest prostokątny (TP) i nie jest prostokątny (~TP)
Y = TP*~TP =[] =0 - zdanie zawsze fałszywe (stała binarna)

Wartość matematyczna twierdzeń T1 i T2 jest zerowa (śmieci).

Analogia do programowania:
Nie da się napisać najprostszego nawet programu dysponując wyłącznie stałymi binarnymi, o z góry wiadomej wartości logicznej.

Definicja bramki logicznej:
Bramka logiczna to układ cyfrowy o n wejściach binarnych {p,q,r..} i tylko jednym wyjściu binarnym Y

Matematycznie zachodzi tożsamość:
funkcja logiczna Y = wyjście bramki logicznej Y

Zwyczajowe zmienne binarne w technice to:
p, q, r … - wejścia bramki logicznej
Y - wyjście bramki logicznej

Przykład:
Y = p*q+~p*~q

1.2.2 Prawo negacji funkcji logicznej Y

Definicja funkcji logicznej w logice dodatniej (bo Y):
Funkcja logiczna Y zapisana jest w logice dodatniej (bo Y) wtedy i tylko wtedy gdy nie jest zanegowana.
W przeciwnym przypadku mamy do czynienia z funkcją logiczną w logice ujemnej (bo ~Y)

Prawo negacji funkcji logicznej Y:
Dowolną funkcję logiczną w logice dodatniej (bo Y) wolno nam dwustronnie zanegować przechodząc do funkcji logicznej w logice ujemnej (bo ~Y) i odwrotnie.

1.2.3 Ogólna definicja logiki matematycznej

Ogólna definicja logiki matematycznej:
Logika matematyczna to matematyczny opis nieznanego tzn. nieznanej przyszłości albo nieznanej przeszłości.
Nie wszystko w czasie przeszłym jest nam wiadome - logika matematyczna służy tu do ustalenia co się w przeszłości zdarzyło

Przykład: Poszukiwanie mordercy
Po długich poszukiwaniach mordercy, Kowalskiemu udowodniono zabójstwo x-a, i się do tego przyznał.
Po co komu potrzebna jest tu dalsza logika matematyczna prowadząca do wykrycia znanego już wszystkim zabójcy x-a?

Stąd mamy:
Prawo Nietoperza:
Jeśli znamy zaistniałe w przeszłości fakty to żadna logika matematyczna ich nie zmieni, jest psu na budę potrzebna.

Przykład:
Hitler - wiemy kim był i co zrobił, to jest fakt, którego żadna logika matematyczna nie zmieni
Nie możemy cofnąć czasu i spowodować by Hitler zginął w zamachu na jego życie przed wybuchem II Wojny Światowej.

1.3 Definicja funkcji logicznej jednoargumentowej Y=x

Prawo Lwa:
Warunkiem koniecznym zrozumienia logiki matematycznej jest jej znajomość na poziomie funkcji logicznych jednoargumentowych.

Zainteresowanym polecam teorię operatorów jednoargumentowych w rachunku zero-jedynkowym zawartą w punkcie 20.0

W najprostszym przypadku mamy do czynienia z funkcją logiczną jednej zmiennej binarnej x
Y=x
Gdzie:
x = {p, ~p, 1, 0}

Definicja funkcji logicznej jednoargumentowej Y=x
Funkcja logiczna jednoargumentowa Y=x to odpowiedź na pytanie o Y.

Kiedy zajdzie Y?
A1.
Y=x
Zajdzie Y wtedy i tylko wtedy gdy zajdzie x
Gdzie:
x = {p, ~p, 1, 0}

Wszystkie możliwe funkcje jednoargumentowe to:
Y=p - transmisja, na wyjściu Y mamy zawsze niezanegowany sygnał p
Y=~p - negacja, na wyjściu Y mamy zawsze zanegowany sygnał p (~p)
Y=1 - stała binarna, na wyjściu Y mamy zawsze 1
Y=0 - stała binarna, na wyjściu Y mamy zawsze 0

1.3.1 Definicja operatora logicznego jednoargumentowego Y|=x

Definicja operatora logicznego jednoargumentowego Y|=x:
Operator logiczny jednoargumentowy Y|=x to układ równań logicznych Y=x i ~Y=~x dający odpowiedź na pytanie kiedy zajdzie Y, a kiedy zajdzie ~Y

Kiedy zajdzie Y?
A1.
Y=x
Zajdzie Y wtedy i tylko wtedy gdy zajdzie x
#
.. a kiedy zajdzie ~Y?
Negujemy dwustronnie jednoargumentową funkcję logiczną A1.
B1.
~Y = ~x
Zajdzie ~Y wtedy i tylko wtedy gdy zajdzie ~x
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

1.3.2 Tabela wszystkich możliwych operatorów jednoargumentowych

Zapiszmy wszystkie możliwe operatory jednoargumentowe w tabeli prawdy
Kod:

TJ
Tabela wszystkich możliwych operatorów jednoargumentowych
Operator transmisji Y|=p
A1:  Y= p         #  B1: ~Y=~p
    ##                   ##
Operator negacji Y=|~p
A2:  Y=~p         #  B2: ~Y= p
    ##                   ##
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
Stąd mamy:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne (Y,~Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

Doskonale widać, że w tabeli TJ definicje obu znaczków # i ## są perfekcyjnie spełnione.

Linie A3B3 i A4B4 to bezcenne zero-jedynkowe definicje prawa Prosiaczka.
Znaczenie alternatywne:
Linie A3B3 i A4B4 to stałe binarne, w logice matematycznej totalnie bezużyteczne czego dowód mieliśmy w punkcie 1.2.1

1.4 Prawa Prosiaczka

I Prawo Prosiaczka:
Linia A3B3 w tabeli TJ
Prawda (=1) w logice dodatniej (bo p) jest tożsama z fałszem (=0) w logice ujemnej (bo ~p)
(p=1) = (~p=0)
##
II Prawo Prosiaczka:
Linia A4B4 w tabeli TJ
Fałsz (=0) w logice dodatniej (bo p) jest tożsamy z prawdą (=1) w logice ujemnej (bo ~p)
(p=0) = (~p=1)

Gdzie:
## - różne na mocy definicji

Zauważmy, że negując dwustronnie I prawo Prosiaczka dalej będziemy w I prawie Prosiaczka bez możliwości przejścia do II prawa Prosiaczka (i odwrotnie), stąd znak różne na mocy definicji ##

Dowód:
I prawo Prosiaczka:
A3B3: (p=1)=(~p=0)
Negujemy dwustronnie:
A3B3: (~p=0)=(p=1) - dalej jesteśmy w I prawie Prosiaczka, bez możliwości dojścia do II prawa Prosiaczka

##

Identycznie będziemy mieli w II prawie Prosiaczka.
II prawo Prosiaczka:
A4B4: (p=0)=(~p=1)
Negujemy dwustronnie:
A4B4: (~p=1)=(p=0) - dalej jesteśmy w II prawie Prosiaczka, bez możliwości dojścia do I prawa Prosiaczka

Gdzie:
## - różne na mocy definicji

Definicja znaczka różne na mocy definicji ##:
Znaczek różne na mocy definicji ## to brak matematycznych powiązań między prawą i lewą stroną znaczka ##

Prawa Prosiaczka wiążą zmienną binarną w logice dodatniej (bo p) ze zmienną binarną w logice ujemnej (bo ~p). Prawa Prosiaczka możemy stosować wybiórczo w stosunku do dowolnej zmiennej binarnej lub stałej binarnej.

1.4.1 Przykład działania praw Prosiaczka na gruncie fizyki

Przyjmijmy znaczenie symboli:
S - żarówka świeci
~S - żarówka nie świeci

Dowód I prawa Prosiaczka na przykładzie:
Linia A3B3 w tabeli TJ:
S - żarówka świeci
Co w logice jedynek oznacza:
A3: S=1 - prawdą jest (=1) że żarówka świeci (S)
Zdanie tożsame na mocy prawa Prosiaczka:
(S=1)=(~S=0)
Czytamy:
B3: ~S=0 - fałszem jest (=0) że żarówka nie świeci (~S)
Prawdziwość I prawa Prosiaczka widać tu jak na dłoni:
(S=1) = (~S=0)

##

Dowód II prawa Prosiaczka na przykładzie:
Linia A4B4 w tabeli Tj:
~S - żarówka nie świeci
Co w logice jedynek oznacza:
B4: ~S=1 - prawdą jest (=1) że żarówka nie świeci (~S)
Zdanie tożsame na mocy prawa Prosiaczka:
(~S=1)=(S=0)
Czytamy:
A4: S=0 - fałszem jest (=0) że żarówka świeci (S)
Prawdziwość II prawa Prosiaczka widać tu jak na dłoni:
(~S=1) = (S=0)

Gdzie:
## - różne na mocy definicji

Innymi słowy:
Pojęcie "żarówka świeci" (S=1) jest różne na mocy definicji ## od pojęcia "żarówka nie świeci" (~S=1)

1.4.2 Zasady kodowania zdań twierdzących w świecie żywym

Dotyczy wyłącznie linii A1B1 i A2B2 w tabeli TJ

Definicja funkcji logicznej w logice dodatniej (bo Y):
Funkcja logiczna zapisana jest w logice dodatniej (bo Y) wtedy i tylko wtedy gdy nie jest zanegowana.
Inaczej zapisana jest w logice ujemnej (bo ~Y)
Przykłady: tabela TJ

Definicja logiki jedynek w języku potocznym:
Z logiką jedynek w języku potocznym mamy do czynienia wtedy i tylko wtedy gdy wszelkie zmienne występujące w zdaniu sprowadzone są do wartości logicznej 1.
Jedynki są w logice matematycznej domyślne i możemy je pominąć.
Innymi słowy:
Wszelkie przeczenia w kodowaniu matematycznym muszą być zapisane jawnie

Sprowadzenie wszystkich zmiennych do wartości logicznej 1 umożliwiają prawa Prosiaczka które możemy stosować wybiórczo w stosunku do dowolnej zmiennej binarnej lub stałej binarnej (pkt. 1.1)
(p=1)=(~p=0)
(p=0) = (~p=1)

Przykłady:
1.
Jutro nie pójdziemy do kina
Y=~K
Co w logice jedynek oznacza:
Y=1 <=> ~K=1 – to jest logika jedynek bo ~K=1
Prawo Prosiaczka:
(~K=1) = (K=0)
Stąd zapis tożsamy:
Y=1 <=> K=0 – to nie jest logika jedynek bo K=0

2.
Jutro pójdziemy do kina
Y=K
Co w logice jedynek oznacza:
Y=1 <=> K=1 – to jest logika jedynek bo K=1
Prawo Prosiaczka:
(K=1)=(~K=0)
Stąd zapis tożsamy:
Y=1 <=> ~K=0 – to nie jest logika jedynek bo ~K=0

Prawo Żyrafy:
Kodowanie zdań twierdzących:

Wszelkie zdania twierdzące dotyczące świata żywego mającego „wolną wolę” kodujemy matematycznie wyłącznie w postaci funkcji logicznych
Y=f(x)
Gdzie:
Y - istota żywa dotrzyma słowa (Y=1)
~Y - istota żywa nie dotrzyma słowa (~Y=1)
Niedozwolone jest kodowanie zdań twierdzących w postaci samego wyrażenia f(x) bowiem prowadzi to do wewnętrznej sprzeczności logiki matematycznej w postaci prawa Grzechotnika (pkt. 1.5.4)

1.4.3 Zasady kodowania zdań twierdzących w świecie martwym

Dotyczy wyłącznie linii A3B3 i A4B4 w tabeli TJ bo tylko tu mamy opisany świat martwy.
Świat martwy z definicji nie ma „wolnej woli” i nie może kłamać.
Przykład w punkcie 1.4.1

1.5 Funkcje Y=x i operatory Y|=x jednoargumentowe

Z tabeli wszystkich możliwych operatorów jednoargumentowych zajmiemy się wyłącznie liniami A1A2 i B1B2 opisującymi świat żywy mający „wolną wolę”.

1.5.1 Definicja funkcji transmisji Y=p i operatora transmisji Y|=p

Definicja transmitera:
Transmiter to bramka logiczna jednowejściowa gdzie na wyjście Y transmitowany jest zawsze niezanegowany sygnał wejściowy p (Y=p)

Realizacja rzeczywista:
SN7407 (Strona 1: Y=p)
Kod:
https://www.ti.com/lit/ds/symlink/sn7407.pdf


Definicja matematyczna:
Funkcja logiczna transmitera Y=p w logice dodatniej (bo Y) to funkcja definiowana tabelą prawdy:
Kod:

FT
Funkcja transmisji Y=p
Wejście |Wyjście
        | A1:
p # ~p  | Y=p
1 #  0  | 1
0 #  1  | 0
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Na wyjściu Y mamy tu zawsze niezanegowany sygnał p (Y=p)

Definicja operatora transmisji Y|=p:
Operator transmisji Y|=p to układ równań logicznych Y=p i ~Y=~p dający odpowiedź na pytanie o Y i ~Y

Zobaczmy to w tabeli zero-jedynkowej:
Kod:

OT
Definicja operatora transmisji: Y|=p
Wejście    |Wyjście
           | A1:   B1:
   p # ~p  | Y=p # ~Y=~p
A: 1 #  0  | 1   #  0
B: 0 #  1  | 0   #  1
   1    2    3      4
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale tu widać że:
A1:
Y=p
co w logice jedynek oznacza:
Y=1 <=> p=1
#
… kiedy zajdzie ~Y?
Negujemy dwustronnie równanie A1.
B1:
~Y=~p
co w logice jedynek oznacza:
~Y=1 <=> ~p=1

1.5.2 Definicja funkcji negacji Y=~p i operatora negacji Y|=~p

Definicja negatora:
Negator to bramka logiczna jednowejściowa gdzie na wyjście Y transmitowany jest zawsze zanegowany sygnał wejściowy p (Y=~p)

Realizacja rzeczywista:
SN7406 (strona 2: Y=~p)
[link widoczny dla zalogowanych]

Definicja matematyczna:
Funkcja logiczna negatora Y=~p to funkcja definiowana tabelą prawdy:
Kod:

FN
Funkcja negatora Y=~p
Wejście |Wyjście
        | A2:
p # ~p  | Y=~p
1 #  0  | 0
0 #  1  | 1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Na wyjściu Y mamy tu zawsze zanegowany sygnał p (Y=~p)

Definicja operatora negacji Y|=~p:
Operator negacji Y|=~p to układ równań logicznych Y=~p i ~Y=p dający odpowiedź na pytanie o Y i ~Y

Zobaczmy to w tabeli zero-jedynkowej:
Kod:

ON
Definicja operatora negacji: Y|=~p
Wejście    |Wyjście
           | A2:    B2:
   p # ~p  | Y=~p # ~Y=p
A: 1 #  0  | 0    #  1
B: 0 #  1  | 1    #  0
   1    2    3       4
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale tu widać że:
A2:
Y=~p
co w logice jedynek oznacza:
Y=1 <=> ~p=1
#
… kiedy zajdzie ~Y?
Negujemy dwustronnie równanie A2.
B2:
~Y=p
co w logice jedynek oznacza:
~Y=1 <=> p=1

1.5.3 Relacja matematyczna między operatorami Y|=p a Y|=~p

Kod:

OT
Definicja operatora transmisji: Y|=p
Wejście |Wyjście
        | A1:   B1:
p # ~p  | Y=p # ~Y=~p
1 #  0  | 1   #  0
0 #  1  | 0   #  1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

##
Kod:

ON
Definicja operatora negacji: Y|=~p
Wejście |Wyjście
        | A2:    B2:
p # ~p  | Y=~p # ~Y=p
1 #  0  | 0    #  1
0 #  1  | 1    #  0
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
Stąd mamy:
Zmienne p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Zauważmy, że jeśli pominiemy nagłówki albo uwzględnimy wyłącznie prawe strony funkcji logicznych Y i ~Y to kolumna A1 będzie tożsama z kolumną B2, czyli:
Definicja znaczka ## leży w gruzach

Stąd mamy wyprowadzone prawo Grzechotnika.

Prawo Grzechotnika:
Aktualna, ziemska algebra Boole'a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.

Jeśli uwzględnimy nagłówki to relacja kolumn A1 i B2 nie będzie tożsamościowa mimo że zero-jedynkowo kolumny te są identyczne.
A1: Y=p ## B2: ~Y=p
Gdzie:
## - różne na mocy definicji

Zapiszmy tabele OT i ON w symbolicznej tabeli prawdy:
Kod:

OTON:
A1: Y= p # B1: ~Y=~p
    ##         ##
A2: Y=~p # B2: ~Y= p

Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
Stąd mamy:
Zmienne p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne (Y,~Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

W tabeli OTON widać, że obie definicje znaczków # i ## są perfekcyjnie spełnione.

Doskonale też widać, że wprowadzenie do logiki matematycznej funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) wymusza wprowadzenie do logiki matematycznej znaczków # i ##

1.5.4 Prawo Grzechotnika dla funkcji jednoargumentowych

Film powinien zaczynać się od trzęsienia ziemi, potem zaś napięcie ma nieprzerwanie rosnąć
Alfred Hitchcock.


Prawo Grzechotnika:
Aktualna, ziemska algebra Boole'a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.

Dowód:
Aktualny rachunek zero-jedynkowy ziemskich matematyków operuje tylko i wyłącznie na wyrażeniach algebry Boole’a, czyli na prawych stronach funkcji logicznych Y i ~Y.
Innymi słowy:
Ziemscy matematycy operując w rachunku zero-jedynkowym wyłącznie na prawych stronach funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) z definicji usuwają zewsząd wszelkie funkcje Y i ~Y.

Usuńmy zatem wszystkie funkcje logiczne Y i ~Y z tabeli OTON
Kod:

OTON":
A1:  p # B1: ~p
A2: ~p # B2:  p
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale widać, że w tabeli OTON" najważniejszy znaczek logiki matematycznej, znaczek różne na mocy definicji ## został zgwałcony, bo ewidentnie zachodzą tożsamości po przekątnych.
W tabeli OTON” zgubiona została kluczowa informacja o tym kiedy zajdzie Y, a kiedy zajdzie ~Y.
To jest dowód wewnętrznej sprzeczności wszelkich ziemskich logik matematycznych.

1.5.5 Prawo Sokoła

Z chwilą zaakceptowania przez ziemskich matematyków algebry Kubusia która widzi funkcje logiczne w logice dodatniej (bo Y) i ujemnej (bo ~Y) prawo Grzechotnika zostanie zastąpione prawem Sokoła.

Prawo Sokoła:
Algebra Kubusia, która widzi funkcje logiczne w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie niesprzeczna na poziomie funkcji logicznych.

W punkcie 24.0 znajdziemy dużą ilość ćwiczeń w temacie prawa Grzechotnika, które obowiązuje dla dowolnych funkcji logicznych n-argumentowych.

1.6 Prawo Grzechotnika na przykładzie zrozumiałym dla 5-cio latka

Definicja standardu dodatniego w języku potocznym człowieka:
W języku potocznym ze standardem dodatnim mamy do czynienia wtedy i tylko wtedy gdy wszelkie przeczenia (~) w zdaniach są uwidocznione w kodowaniu matematycznym tych zdań.
Innymi słowy:
W kodowaniu matematycznym dowolnych zdań z języka potocznego wszystkie zmienne muszą być sprowadzone do logicznych jedynek na mocy prawa Prosiaczka

Przykład konsekwentnego stosowania standardu dodatniego w języku potocznym mamy niżej

Kod:

OT
Definicja operatora transmisji: Y|=p
Wejście |Wyjście
        | A1:   B1:
p # ~p  | Y=p # ~Y=~p
1 #  0  | 1   #  0
0 #  1  | 0   #  1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

##
Kod:

ON
Definicja operatora negacji: Y|=~p
Wejście |Wyjście
        | A2:    B2:
p # ~p  | Y=~p # ~Y=p
1 #  0  | 0    #  1
0 #  1  | 1    #  0
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
Stąd mamy:
Zmienne p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Prawo Grzechotnika:
Aktualna, ziemska algebra Boole'a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.

W niniejszym punkcie zajmiemy się dowodem prawa Grzechotnika dla funkcji jednoargumentowych Y=p i Y=~p na konkretnym przykładzie, doskonale rozumianym przez każdego 5-cio latka.

Zadanko Kubusia:
Dane są dwa zdania pań przedszkolanek z dwóch różnych przedszkoli A1 i A2.

Pani w przedszkolu A1:
A1.
Jutro pójdziemy do kina

Pani w przedszkolu A2:
A2.
Jutro nie pójdziemy do kina

Treść polecenia:
Zapisz w funkcjach logicznych kiedy panie dotrzymają słowa a kiedy skłamią?

Rozwiązanie Jasia, ucznia I klasy LO w 100-milowym lesie.

Przedszkole A1:
Kod:

OT
Definicja operatora transmisji: Y|=p
Wejście |Wyjście
        | A1:   B1:
p # ~p  | Y=p # ~Y=~p
Przykład który za chwilkę zrobimy p=K:
K # ~K  | Y=K # ~Y=~K
1 #  0  | 1   #  0
0 #  1  | 0   #  1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Pani w przedszkolu A1:
A1.
Jutro pójdziemy do kina
Y=K
co w logice jedynek oznacza:
Y=1 <=> K=1 - doskonale to widać w tabeli OT
Czytamy:
Prawdą jest (=1), że pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1)
#
Kiedy pani nie dotrzyma słowa (~Y=1)?
Negujemy równanie A1 stronami:
B1.
~Y=~K
co w logice jedynek oznacza:
~Y=1 <=> ~K=1 - doskonale to widać w tabeli OT
Czytamy:
Prawdą jest (=1), że pani nie dotrzyma słowa (~Y) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1)

##

Przedszkole A2:
Kod:

ON
Definicja operatora negacji: Y|=~p
Wejście |Wyjście
        | A2:    B2:
p # ~p  | Y=~p # ~Y=p
Przykład który za chwilkę zrobimy p=K:
K # ~K  | Y=~K # ~Y=K
1 #  0  | 0    #  1
0 #  1  | 1    #  0
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Pani w przedszkolu A2:
A2.
Jutro nie pójdziemy do kina
Y=~K
co w logice jedynek oznacza:
Y=1 <=> ~K=1 - doskonale to widać w tabeli ON
Czytamy:
Prawdą jest (=1), że pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1)
#
Kiedy pani nie dotrzyma słowa (~Y=1)?
Negujemy równanie A2 dwustronnie.
~Y=K
Stąd mamy:
B2.
Pani nie dotrzyma słowa (~Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K)
~Y=K
co w logice jedynek oznacza:
~Y=1 <=> K=1 - doskonale to widać w tabeli ON
Czytamy:
Prawdą jest (=1), że pani nie dotrzyma słowa (~Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1)

Gdzie:
Zmienne Y i K muszą być wszędzie tymi samymi zmiennymi, inaczej błąd podstawienia
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Znaczenie zmiennych Y i K w logice dodatniej (bo p) i ujemnej (bo ~p):
Y - pani dotrzyma słowa (Y=1)
~Y - pani nie dotrzyma słowa (~Y=1)
K - jutro pójdziemy do kina (K=1)
~K - jutro nie pójdziemy do kina (~K=1)

Definicja dziedziny D dla zdarzeń:
Dziedzina D dla zdarzeń to zbiór wszystkich możliwych zdarzeń jakie mogą wystąpić
K+~K =D =1 - zdanie zawsze prawdziwe (stała binarna)
K*~K =[] =0 - zdanie zawsze fałszywe (stała binarna)
Zauważmy, że pojęcia K (kino) i ~K (nie kino) nie są zdaniami.
Zdaniami są dopiero funkcje logiczne Y=x

Matematycznie zachodzi:
Kod:

Zdarzenie x ## funkcja logiczna Y=x
Gdzie:
x={K,~K} - zmienne wejściowe dla funkcji logicznej Y=x
## - różne na mocy definicji

Zapiszmy dialogi pań z przedszkola A1 i A2 w tabeli prawdy:
Kod:

T1
Pani w przedszkolu A1:
A1: Y= K   #  B1: ~Y=~K
    ##            ##
Pani w przedszkolu A2:
A2: Y=~K   #  B2: ~Y= K

Matematycznie zachodzi tożsamość:
~Y=~(Y)
~K=~(K)
Stąd mamy:
K, Y muszą być wszędzie tymi samymi K, Y inaczej błąd podstawienia

Definicja znaczka #:
Dowolna strona znaczka # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne (Y,~Y) są różne na mocy definicji wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

W tabeli T1 doskonale widać, że obie definicje znaczków # i ## są perfekcyjnie spełnione.

Jak widzimy wyżej, wprowadzenie do logiki matematycznej funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) wymusza wprowadzenie do logiki matematycznej znaczków # i ##

1.6.1 Dowód prawa Grzechotnika na poziomie przedszkola

Prawo Grzechotnika:
Aktualna, ziemska algebra Boole'a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.

Dowód:
Aktualny rachunek zero-jedynkowy ziemskich matematyków operuje tylko i wyłącznie na wyrażeniach algebry Boole’a, czyli na prawych stronach funkcji logicznych Y i ~Y.
Innymi słowy:
Ziemscy matematycy operując w rachunku zero-jedynkowym wyłącznie na prawych stronach funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) z definicji usuwają zewsząd wszelkie funkcje Y i ~Y.

Usuńmy zatem wszystkie funkcje logiczne Y i ~Y z tabeli T1.
Kod:

T1"
Pani w przedszkolu A1:
A1:  K   #  B1: ~K
Pani w przedszkolu A2:
A2: ~K   #  B2:  K
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale widać, że w tabeli T1" najważniejszy znaczek logiki matematycznej, znaczek różne na mocy definicji ## został zgwałcony, bo ewidentnie zachodzą tożsamości po przekątnych.
To jest dowód wewnętrznej sprzeczności wszelkich ziemskich logik matematycznych.

Z chwilą zaakceptowania przez ziemskich matematyków algebry Kubusia która widzi funkcje logiczne w logice dodatniej (bo Y) i ujemnej (bo ~Y) prawo Grzechotnika zostanie zastąpione prawem Sokoła.

1.6.2 Prawo Sokoła

Prawo Sokoła:
Algebra Kubusia, która widzi funkcje logiczne w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie niesprzeczna na poziomie funkcji logicznych.

1.6.3 Funkcja logiczna Y zmiennej binarnej p

Definicja funkcji logicznej Y zmiennej binarnej p:
Funkcja logiczna Y zmiennej binarnej p jest poprawnie zbudowana wtedy i tylko wtedy gdy nie zawiera choćby jednego wartościowania w swoim zapisie.

Dowód przez podanie kontrprzykładu:
To jest poprawnie zbudowana funkcja logiczna Y:
A1: Y=p
Co w logice jedynek oznacza:
A1: Y=1 <=> p=1
Negujemy dwustronnie:
B1: ~Y=~p
Co w logice jedynek oznacza:
B1: ~Y=1 <=> ~p=1

Kontrprzykład:
To jest fałszywa funkcja logiczna Y:
A1: Y=1 <=> p
Negujemy dwustronnie:
B1’: ~Y=0 <=> ~p

Dowód błędności:
B1: ~Y=1 ## B1’: ~Y=0
Gdzie:
## - różne na mocy definicji
cnd

1.6.4 Funkcja logiczna Y stałej binarnej p

Funkcja logiczna Y stałej binarnej p to po prostu prawa Prosiaczka omówione w punkcie 1.4

1.7 Prawo Puchacza dla zdań twierdzących jednoargumentowych

Kod:

TJ
Tabela wszystkich możliwych operatorów jednoargumentowych
Operator transmisji Y|=p
A1:  Y= p         #  B1: ~Y=~p
    ##                   ##
Operator negacji Y=|~p
A2:  Y=~p         #  B2: ~Y= p
    ##                   ##
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Gdzie:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Uwaga:
Linie A1B1 i A2B2 dotyczą świata żywego w którym kłamstwo (~Y) jest możliwe, zatem tu nie znamy z góry wartości logicznej zdań.
Linie A3B3 i A4B4 dotyczą świata martwego, który z definicji nie może kłamać, zatem tu znamy z góry wartość logiczną zdań 1 albo 0.

Prawo Puchacza dla zdań twierdzących jednoargumentowych w języku potocznym:
Funkcje logiczne Y i ~Y opisujące linię x w tabeli TJ dostępne są tylko i wyłącznie w linii x.
Żadna z tych funkcji nie jest dostępna w jakiejkolwiek linii poza linią x

Dowód formalny:
Wybieramy przykładową funkcję logiczną z linii A2B2:
B2: ~Y=p
Sprawdzamy iż funkcji tej nie ma w żadnej innej linii poza linią A2B2.
itd

1.7.1 Jak działa prawo Puchacza?

Poszczególne zdania związane z tabelą TJ możemy wypowiadać losowo, a kodowanie matematyczne wskaże nam miejsce tego zdania w tabeli TJ.

Przykłady:
1.
Pani nie dotrzyma słowa wtedy i tylko wtedy gdy jutro pójdziemy do kina
~Y=K
Punkt: B2
2.
Pani dotrzyma słowa wtedy i tylko wtedy gdy jutro pójdziemy do kina
Y = K
Punkt: A1
3.
Żarówka świeci
S=1
Prawdą jest (=1), że żarówka świeci (S)
Punkt: A3
4.
Pani nie dotrzyma słowa wtedy i tylko wtedy gdy jutro nie pójdziemy do kina
~Y = ~K
Punkt: B1
5.
Żarówka nie świeci
~S=1
Prawdą jest (=1), że żarówka nie świeci (~S)
Punkt: B4
6.
Pani dotrzyma słowa wtedy i tylko wtedy gdy jutro nie pójdziemy do kina
Y = ~K
Punkt: A2

W tym momencie polecam ciekawskim przeczytanie punktu:
20.0 Tajemnice operatorów jednoargumentowych


Ostatnio zmieniony przez rafal3006 dnia Pon 7:31, 16 Wrz 2024, w całości zmieniany 3 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 34685
Przeczytał: 26 tematów

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Sob 11:38, 14 Wrz 2024    Temat postu:

Kwintesencja algebry Kubusia
Część II Tajemnice operatorów jednoargumentowych

Spis treści
20.0 Tajemnice operatorów jednoargumentowych 1
20.1 Prawa Prosiaczka 2
20.1.1 Wyprowadzenie I prawa Prosiaczka 3
20.1.2 Wyprowadzenie II prawa Prosiaczka 4
20.1.3 Prawa Prosiaczka w bramkach logicznych 6
20.1.4 Dowód praw Prosiaczka na poziomie 3-latka 6
20.2 Stałe binarne w logice matematycznej 7
20.2.1 Stałe binarne w wieku niemowlęcym 8
20.2.2 Stałe binarne w wieku 9 miesięcy 9
20.3 Stałe binarne w pierwszej klasie LO na lekcji logiki matematycznej 9
20.3.1 Prawo Grzechotnika dla stałych binarnych 12
20.3.2 Prawo Sokoła dla stałych binarnych 13
20.3.3 Pułapki w operatorach jednoargumentowych 13
20.4 Operatory jednoargumentowe w tabeli prawdy 15
20.4.1 Operatory jednoargumentowe w tabelach zero-jedynkowych 16
20.4.2 Prawo Grzechotnika - Armagedon ziemskiego rachunku zero-jedynkowego 18
20.5 Operator transmisji A0: Y|=p w rachunku zero-jedynkowym 19
20.5.1 Przykład operatora transmisji A0: Y|=K 20
20.6 Operator negacji A1: Y|=~p 21
20.6.1 Przykład operatora negacji A1: Y|=~K 22
20.7 Operator zdania zawsze prawdziwego A2: Y|=p+~p 23
20.7.1 Przykład operatora zdania zawsze prawdziwego A2: Y|=K+~K 24
20.8 Operator zdania zawsze fałszywego A3: Y|=p*~p 26
20.8.1 Przykład operatora zdania zawsze fałszywego A3: Y|=K*~K 27
20.9 Podsumowanie operatorów jednoargumentowych Y|=f(x) 28



20.0 Tajemnice operatorów jednoargumentowych

Niniejszy rozdział to matematyka rozszerzona, której znajomość nie jest konieczna dla biegłego posługiwania się operatorami jednoargumentowymi, tą umiejętność wyssaliśmy z mlekiem matki.
Nie ma tu nic takiego co byłoby niezrozumiałe dla człowiek myślącego, ucznia I klasy LO.

Tabela prawdy operatorów jednoargumentowych wyprowadzona w punkcie 1.3.2.
Kod:

TJ
Tabela wszystkich możliwych operatorów jednoargumentowych
Operator transmisji Y|=p
A1:  Y= p         #  B1: ~Y=~p
    ##                   ##
Operator negacji Y=|~p
A2:  Y=~p         #  B2: ~Y= p
    ##                   ##
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
Stąd mamy:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne (Y,~Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

Doskonale widać, że w tabeli TJ definicje obu znaczków # i ## są perfekcyjnie spełnione.

Linie A3B3 i A4B4 to bezcenne zero-jedynkowe definicje prawa Prosiaczka.
Znaczenie alternatywne:
Linie A3B3 i A4B4 to stałe binarne, wykorzystywane w definiowaniu nowych pojęć (pkt. 20.2)

Zacznijmy od matematycznego wyprowadzenia praw Prosiaczka.

20.1 Prawa Prosiaczka

I Prawo Prosiaczka:
Prawda (=1) w logice dodatniej (bo Y) jest tożsama z fałszem (=0) w logice ujemnej (bo ~Y)
(Y=1) = (~Y=0)
##
II Prawo Prosiaczka:
Fałsz (=0) w logice dodatniej (bo Y) jest tożsamy z prawdą (=1) w logice ujemnej (bo ~Y)
(Y=0) = (~Y=1)
Gdzie:
## - różne na mocy definicji

Prawa Prosiaczka wiążą zmienną binarną w logice dodatniej (bo Y) ze zmienną binarną w logice ujemnej (bo ~Y). Prawa Prosiaczka możemy stosować wybiórczo w stosunku do dowolnej zmiennej binarnej, jak również w stosunku do dowolnej stałej binarnej.

Zapiszmy funkcje logiczne A2 i A3 bo tylko one w prawach Prosiaczka nas interesują
Kod:

TJ23
A2: Y=1  #  B2: ~Y=0
    ##          ##
A3: Y=0  #  B3: ~Y=1
Gdzie:
# - różne w znaczeniu iż jedna strona # jest negację drugiej strony
## - różne na mocy definicji

Definicja znaczka różne #
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##
Dwie funkcje logiczne są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest zaprzeczeniem drugiej.

Doskonale widać, że tabela TJ23 perfekcyjnie spełnia zarówno definicję znaczka różne # jak i definicję znaczka różne na mocy definicji ##

W wierszach A2 i A3 doskonale widać prawa Prosiaczka.

20.1.1 Wyprowadzenie I prawa Prosiaczka

Zapiszmy funkcje logiczne A2 i A3 w tabeli prawdy
Kod:

TJ23
A2: Y=1  #  B2: ~Y=0
    ##          ##
A3: Y=0  #  B3: ~Y=1
Gdzie:
# - różne w znaczeniu iż jedna strona # jest negację drugiej strony
## - różne na mocy definicji

I prawo Prosiaczka widać w linii A2-B2:

I Prawo Prosiaczka:
A2: (Y=1) # B2: (~Y=0)
Zmienna binarna w logice dodatniej (bo Y) ma wartość logiczną 1 wtedy i tylko wtedy gdy zmienna binarna w logice ujemnej (bo ~Y) ma wartość logiczną 0
Stąd mamy zapis tożsamy I prawa Prosiaczka:
A2: (Y=1) <=> B2: (~Y=0)

Definicja równoważności p<=>q:
Równoważność to jednoczesne zachodzenie twierdzenia prostego p=>q i twierdzenia odwrotnego q=>p
p<=>q = (p=>q)*(q=>p) =1*1 =1

Stąd:
I Prawo Prosiaczka:
A2: (Y=1) <=> B2: (~Y=0) = (A2: (Y=1)=>B2: (~Y=0))*(B2: (~Y=0)=>A2: (Y=1)) =1*1 =1

Twierdzenie proste A2: p=>q brzmi:
A2.
Jeśli A2: (Y=1) to na 100% => B2: (~Y=0)
cnd
Twierdzenie odwrotne B2: q=>p brzmi:
B2.
Jeśli B2: (~Y=0) to na 100% => A2: (Y=1)
cnd

Prawo Irbisa:
Każda równoważność pojęć p<=>q definiuje tożsamość pojęć p=q i odwrotnie
p<=>q [=] p=q

Na mocy prawa Irbisa mamy:
A2: (Y=1) <=> B2: (~Y=0) [=] A2: (Y=1) = B2: (~Y=0)

Definicja tożsamości logicznej [=]:
Prawdziwość dowolnej strony tożsamości logicznej [=] wymusza prawdziwość drugiej strony
Fałszywość dowolnej strony tożsamości logicznej [=] wymusza fałszywość drugiej strony

Tożsame znaczki tożsamości logicznej które możemy używać zamiennie celem precyzyjnego zapisu prawa logicznego np. prawa Irbisa
<=>, „=”, [=]
<=> - wtedy i tylko wtedy

Stąd końcowa postać I prawa Prosiaczka przyjmuje brzmienie.

I Prawo Prosiaczka:
Prawda (=1) w logice dodatniej (bo Y) jest tożsama z fałszem (=0) w logice ujemnej (bo ~Y)
(Y=1) = (~Y=0)

Tożsamość jest przemienna stąd mamy wersję tożsamą.

I Prawo Prosiaczka:
Fałsz (=0) w logice ujemnej (bo ~Y) jest tożsamy z prawdą (=1) w logice dodatniej (bo Y)
(~Y=0)=(Y=1)
cnd

20.1.2 Wyprowadzenie II prawa Prosiaczka

Zapiszmy funkcje logiczne A2 i A3 w tabeli prawdy bo w prawach Prosiaczka tylko one nas interesują
Kod:

TJ23
A2: Y=1  #  B2: ~Y=0
    ##          ##
A3: Y=0  #  B3: ~Y=1
Gdzie:
# - różne w znaczeniu iż jedna strona # jest negację drugiej strony
## - różne na mocy definicji

II prawo Prosiaczka widać w linii A3-B3:

II Prawo Prosiaczka:
A3 (Y=0) # B3: (~Y=1)
Zmienna binarna w logice dodatniej (bo Y) ma wartość logiczną 0 wtedy i tylko wtedy gdy zmienna binarna w logice ujemnej (bo ~Y) ma wartość logiczną 1 (i odwrotnie)
Stąd mamy zapis tożsamy II prawa Prosiaczka:
A3: (Y=0) <=> B3: (~Y=1)

Definicja równoważności p<=>q:
Równoważność to jednoczesne zachodzenie twierdzenia prostego p=>q i twierdzenia odwrotnego q=>p
p<=>q = (p=>q)*(q=>p) =1*1 =1

Stąd:
II Prawo Prosiaczka:
A3: (Y=0) <=> B3: (~Y=1) = (A3: (Y=0)=>B3: (~Y=1))*(B3: (~Y=1)=>A3: (Y=0)) =1*1 =1

Twierdzenie proste A3: p=>q brzmi:
A3.
Jeśli A3: (Y=0) to na 100% => B3: (~Y=1)
cnd
Twierdzenie odwrotne B3: q=>p brzmi:
B3.
Jeśli B3: (~Y=1) to na 100% => A3: (Y=0)
cnd

Prawo Irbisa:
Każda równoważność pojęć p<=>q definiuje tożsamość pojęć p=q i odwrotnie
p<=>q [=] p=q

Na mocy prawa Irbisa mamy:
A3: (Y=0) <=> B3: (~Y=1) [=] A3: (Y=0) = B3: (~Y=1)

Definicja tożsamości logicznej [=]:
Prawdziwość dowolnej strony tożsamości logicznej [=] wymusza prawdziwość drugiej strony
Fałszywość dowolnej strony tożsamości logicznej [=] wymusza fałszywość drugiej strony

Tożsame znaczki tożsamości logicznej które możemy używać zamiennie celem precyzyjnego zapisu prawa logicznego np. prawa Irbisa
<=>, „=”, [=]
<=> - wtedy i tylko wtedy

Stąd końcowa postać II prawa Prosiaczka przyjmuje brzmienie.

II Prawo Prosiaczka:
Fałsz (=0) w logice dodatniej (bo Y) jest tożsamy z prawdą (=1) w logice ujemnej (bo ~Y)
(Y=0) = (~Y=1)

Tożsamość jest przemienna stąd mamy wersję tożsamą.
II Prawo Prosiaczka:
Prawda (=1) w logice ujemnej (bo ~Y) jest tożsama z fałszem (=0) w logice dodatniej (bo Y)
(~Y=1)=(Y=0)
cnd

20.1.3 Prawa Prosiaczka w bramkach logicznych

Realizacja praw Prosiaczka w bramkach logicznych:
Kod:

I prawo Prosiaczka:
(Y=1)<=>(~Y=0)
        Y=1   ------    <=>  ~Y=0
------------->| #  |o----------------->
              ------
Po minięciu negatora # funkcję Y=1 musimy negować dwustronnie ~Y=0
        ##                    ##
II Prawo Prosiaczka:
(Y=0)<=>(~Y=1)
        Y=0   ------    <=>  ~Y=1
------------->| #  |o----------------->
              ------
Po minięciu negatora # funkcję Y=0 musimy negować dwustronnie ~Y=1
Gdzie:
„o” - symbol negatora (#)
## - różne na mocy definicji

Stąd mamy:

I Prawo Prosiaczka:
Prawda (=1) w logice dodatniej (bo Y) jest tożsama z fałszem (=0) w logice ujemnej (bo ~Y)
(Y=1) = (~Y=0)
##
II Prawo Prosiaczka:
Fałsz (=0) w logice dodatniej (bo Y) jest tożsamy z prawdą (=1) w logice ujemnej (bo ~Y)
(Y=0) = (~Y=1)
Gdzie:
## - różne na mocy definicji
Prawa Prosiaczka możemy stosować wybiórczo w stosunku do dowolnej zmiennej binarnej lub stałej binarnej.

20.1.4 Dowód praw Prosiaczka na poziomie 3-latka

Dla zrozumienie praw Prosiaczka nie są potrzebne żadne definicje bo to jest matematyczny poziom 3-latka.

I Prawo Prosiaczka:
Prawda (=1) w logice dodatniej (bo p) jest tożsama z fałszem (=0) w logice ujemnej (bo ~p)
(p=1) = (~p=0)
##
II Prawo Prosiaczka:
Prawda (=1) w logice ujemnej (bo ~p) jest tożsama z fałszem (=0) w logice dodatniej (bo p)
(~p=1) = (p=0)
Gdzie:
## - różne na mocy definicji

Prawa Prosiaczka doskonale znają w praktyce wszyscy ludzie na ziemi, od 3-latka poczynając na prof. matematyki kończąc.

Tata i synek Jaś (lat 3) na spacerze w ZOO

Jaś pokazując paluszkiem słonia mówi:
A.
Popatrz tata, to jest słoń!
S=1
Matematycznie:
Prawdą jest (=1) że to jest słoń (S)

Tata:
… a może to nie jest słoń?
Jaś:
B.
Fałszem jest (=0) że to nie jest słoń (~S)
~S=0

Zdania A i B są matematycznie tożsame o czym wie każdy 3-latek, który genialnie posługuje się w praktyce prawami Prosiaczka.

I prawo Prosiaczka:
A: (S=1) = B: (~S=0)

Jaś pokazuje paluszkiem kozę i mówi:
C.
Popatrz tata, to nie jest słoń
~S=1
Matematycznie:
Prawdą jest (=1), że to nie jest słoń

Tata:
… a może to jednak słoń?
Jaś:
D.
Fałszem jest (=0) że to jest słoń
S=0
Zdania C i D są matematycznie tożsame o czym wie każdy 3-latek, który genialnie posługuje się w praktyce prawami Prosiaczka.

II prawo Prosiaczka
C: (~S=1) = D: (S=0)

20.2 Stałe binarne w logice matematycznej

Kod:

TJ
Tabela wszystkich możliwych operatorów jednoargumentowych
Operator transmisji Y|=p
A1:  Y= p         #  B1: ~Y=~p
    ##                   ##
Operator negacji Y=|~p
A2:  Y=~p         #  B2: ~Y= p
    ##                   ##
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Gdzie:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Uwaga:
Linie A1B1 i A2B2 dotyczą świata żywego w którym kłamstwo (~Y) jest możliwe, zatem tu nie znamy z góry wartości logicznej zdań.
Linie A3B3 i A4B4 dotyczą świata martwego, który z definicji nie może kłamać, zatem tu znamy z góry wartość logiczną zdań 1 albo 0.

20.2.1 Stałe binarne w wieku niemowlęcym

Logika matematyczna niemowlaków 0-2 lat to definiowanie stałych binarnych, które to definicje będą im niezbędne by w wieku 5 lat opanować biegle algebrę Kubusia.

Mama pokazuje 6-miesięcznemu synkowi na obrazku kurę i mówi:
A3.
To jest kura
K=1
Czytamy:
Prawdą jest (=1), że to jest kura (K)

Prawo Prosiaczka:
A3: (K=1) = B3: (~K=0)
B3:
~K=0
Czytamy:
Fałszem jest (=0), że to nie jest kura (~K)

Tożsamość zdań:
A3: (K=1) = B3: (~K=0)
rozumie każdy 5-cio latek
Wniosek:
Prawo Prosiaczka działa fenomenalnie

„To jest kura” z filmu CK Dezerterzy:
[link widoczny dla zalogowanych]
Kod:
https://www.dailymotion.com/video/x14lk01


Czy mama może pokazywać niemowlakowi na obrazku kurę, twierdząc że to jest osioł?
Może, ale wyląduje w szpitalu psychiatrycznym co przydarzyło się von Nogayowi w filmie CK Dezerterzy.

20.2.2 Stałe binarne w wieku 9 miesięcy

Przysłowiowy Jaś zapewne pamięta, jak w wieku 9 miesięcy mama trzymając go na rączkach i pstrykając pstryczkiem elektryczkiem na ścianie pierwszy raz tłumaczyła mu co znaczą pojęcia:
„Żarówka świeci” vs „Żarówka nie świeci”?
Kod:

TJ
A3.
Żarówka świeci
A3: Y=1
Czytamy:
Prawdą jest (=1), że żarówka świeci (Y)
##
oraz
B4.
Żarówka nie świeci
B4: ~Y=1
Czytamy:
Prawdą jest (=1), że żarówka nie świeci (~Y)
Gdzie:
## - pojęcia różne na mocy definicji

Znaczenie stałej binarnej Y:
Y – żarówka świeci (Y=1)
~Y – żarówka nie świeci (~Y=1)
Jasiowi bardzo się to podobało, bo z zapałem dorwał się do pstryczka elektryczka powtarzając wiele razy:
O, żarówka świeci
A3: Y=1
##
Klikając pstryczkiem kolejny raz mówi:
O, żarówka nie świeci
B4:~Y=1
Gdzie:
## - pojęcia różne na mocy definicji
… i tak w koło macieju Jaś utrwalił sobie w swoim małym móżdżku dwa, różne na mocy definicji pojęcia ## (stałe binarne):
A3: Y=1 (żarówka świeci Y) ## B4: ~Y=1 (żarówka nie świeci ~Y)
Gdzie:
## - różne na mocy definicji

20.3 Stałe binarne w pierwszej klasie LO na lekcji logiki matematycznej
Kod:

TJ
Tabela wszystkich możliwych operatorów jednoargumentowych
Operator transmisji Y|=p
A1:  Y= p         #  B1: ~Y=~p
    ##                   ##
Operator negacji Y=|~p
A2:  Y=~p         #  B2: ~Y= p
    ##                   ##
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Gdzie:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Wykład Prosiaczka, wysłannika 100-milowego lasu w I klasie ziemskiego LO.

Prosiaczek:
Na dzisiejszej lekcji zajmiemy się pojęciem stała binarna definiowanym w tabeli TJ wierszami A3B3 oraz A4B4 na przykładzie żarówki, która może świecić (A3: Y=1), albo nie świecić (B4: ~Y=1) – trzeciej możliwości brak.

Definicja stałej binarnej.
Stała binarna to funkcja logiczna {Y,~Y} której wartość logiczna jest nam znana.
Innymi słowy:
Stała binarna to pojęcie {Y,~Y} którego wartość logiczna jest nam znana.

Znaczenie stałej binarnej {Y, ~Y}:
Y – żarówka świeci się (Y=1)
##
~Y – żarówka nie świeci się (~Y=1)
Gdzie:
## - pojęcia różne na mocy definicji

Logika dodatnia w algebrze Kubusia:
Z logiką dodatnią w algebrze Kubusia mamy do czynienia wtedy i tylko wtedy gdy funkcja logiczna Y nie jest zanegowana (Y)
Inaczej mamy do czynienia z logiką ujemną (bo ~Y)
Uwaga:
Wszelkie przeczenia w zdaniach muszą być uwzględnione są w kodowaniu matematycznym zdań.

Przykłady:
A3.
Żarówka świeci się
A3: Y=1 – logika dodatnia (bo Y)
##
B4.
Żarówka nie świeci się
B4: ~Y=1 – logika ujemna (bo ~Y)
Gdzie:
## - pojęcia różne na mocy definicji

Znaczenie zmiennej Y:
Y – żarówka świeci się (Y=1)
~Y – żarówka nie świeci się (~Y=1)
Uwaga:
Jedynki w kodowaniu zdań są domyślne i można je pominąć, co widać wyżej.

Linia A3B3 – stała binarna w logice dodatniej (bo Y):
Prosiaczek pstrykając pstryczkiem elektryczkiem zaświecił żarówkę i mówi:
Jak wszyscy widzą, żarówka świeci się (Y=1)

Zauważmy, że pojęcie „żarówka świeci się” (Y=1) w tabeli TJ możemy ulokować wyłącznie w punkcie A3.
A3.
Żarówka świeci się
A3: Y=1 – logika dodatnia (bo Y)
Czytamy:
Prawdą jest (=1) że żarówka świeci się (Y)

Prawo Prosiaczka:
(A3: Y=1) = (B3: ~Y=0)
Stąd na mocy prawa Prosiaczka mamy zdanie tożsame do A3:
B3: ~Y=0
Czytamy:
Fałszem jest (=0), że żarówka nie świeci się (~Y)
Jak widzimy, prawo Prosiaczka działa tu doskonale, zdania A3 i B3 są tożsame:
(A3: Y=1) = (B3: ~Y=0)

##

Linia A4B4 – stała binarna w logice ujemnej (bo ~Y):
Prosiaczek pstrykając pstryczkiem elektryczkiem zgasił żarówkę i mówi:
Jak wszyscy widzą, żarówka nie świeci się (~Y=1)

Zauważmy, że pojęcie „żarówka nie świeci się” (~Y=1) w tabeli TJ możemy ulokować wyłącznie w punkcie B4.
B4.
Żarówka nie świeci się
B4: ~Y=1
Czytamy:
Prawdą jest (=1) że żarówka nie świeci się (~Y)

Prawo Prosiaczka:
(B4: ~Y=1) = (A4: Y=0)
Stąd na mocy prawa Prosiaczka mamy zdanie tożsame do B4:
A4: Y=0
Czytamy:
Fałszem jest (=0), że żarówka świeci się (Y)
Jak widzimy, prawo Prosiaczka działa tu doskonale, zdania B4 i A4 są tożsame:
(B4: ~Y=1) = (A4: Y=0)
Gdzie:
## - różne na mocy definicji

Wytnijmy nasze zdania z tabeli TJ bo tylko nimi się teraz zajmujemy:
Kod:

TJ1
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Gdzie:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji


Definicja znaczka różne na mocy definicji ##:
Dwa pojęcia są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadne z nich nie jest negacją drugiej.

Doskonale widać, że w tabeli TJ1 znaczek różne na mocy definicji ## jest perfekcyjnie spełniony
Dowód:
Negujemy dwustronnie funkcję logiczną A3: Y=1 lądując w punkcie B3: ~Y=0
Do funkcji logicznej B4: ~Y=1 o znanej zwartości logicznej (stała binarna) matematycznie nie mamy dojścia.

Oczywiście matematycznie zachodzi:
B3: ~Y=0 ## B4: ~Y=1
## - różne na mocy definicji

Uproszczona definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne w tej samej logice (tu ujemnej bo ~Y) są różne na mocy definicji wtedy i tylko wtedy gdy prawe strony tych funkcji nie są tożsame.
Wniosek:
Funkcje logiczne B3 i B4 są różne na mocy definicji ##
cnd

20.3.1 Prawo Grzechotnika dla stałych binarnych

Zapiszmy tabelę TJ1 w postaci jej kwintesencji:
Kod:

TJ1
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
A4:  Y=0          #  B4: ~Y=1
Gdzie:
~Y=~(Y)
Y musi być wszędzie tym samym Y inaczej błąd podstawienia
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne (Y,~Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

W tabeli TJ1 widać, że obie definicje znaczków # i ## są perfekcyjnie spełnione.

Doskonale też widać, że wprowadzenie do logiki matematycznej funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) wymusza wprowadzenie do logiki matematycznej znaczków # i ##

Prawo Grzechotnika dla stałych binarnych

Film powinien zaczynać się od trzęsienia ziemi, potem zaś napięcie ma nieprzerwanie rosnąć
Alfred Hitchcock.


Definicja stałej binarnej.
Stała binarna to funkcja logiczna {Y,~Y} której wartość logiczna jest nam znana.
Innymi słowy:
Stała binarna to pojęcie {Y,~Y} którego wartość logiczna jest nam znana.

Prawo Grzechotnika:
Aktualna, ziemska algebra Boole'a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.

Dowód:
Aktualny rachunek zero-jedynkowy ziemskich matematyków operuje tylko i wyłącznie na wyrażeniach algebry Boole’a, czyli na prawych stronach funkcji logicznych Y i ~Y.
Innymi słowy:
Ziemscy matematycy operując w rachunku zero-jedynkowym wyłącznie na prawych stronach funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) z definicji usuwają zewsząd wszelkie funkcje Y i ~Y.

Usuńmy zatem wszystkie funkcje logiczne Y i ~Y z tabeli T2.
Kod:

TJ1”.
A3:  1          #  B3: 0
    ##                ##
A4:  0          #  B4: 1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale widać, że w tabeli TJ1" najważniejszy znaczek logiki matematycznej, znaczek różne na mocy definicji ## został zgwałcony, bo ewidentnie zachodzą tożsamości po przekątnych.
W tabeli TJ1” zgubiona została kluczowa informacja o tym kiedy zajdzie Y (żarówka świeci), a kiedy zajdzie ~Y (żarówka nie świeci)
To jest dowód wewnętrznej sprzeczności wszelkich ziemskich logik matematycznych na poziomie funkcji logicznych o znanej wartości logicznej (stałych binarnych)

20.3.2 Prawo Sokoła dla stałych binarnych

Z chwilą zaakceptowania przez ziemskich matematyków algebry Kubusia która widzi funkcje logiczne w logice dodatniej (bo Y) i ujemnej (bo ~Y) prawo Grzechotnika zostanie zastąpione prawem Sokoła.

Prawo Sokoła:
Algebra Kubusia, która widzi funkcje logiczne w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie niesprzeczna na poziomie funkcji logicznych.

20.3.3 Pułapki w operatorach jednoargumentowych

Kod:

TJ
Tabela wszystkich możliwych operatorów jednoargumentowych
Operator transmisji Y|=p
A1:  Y= p         #  B1: ~Y=~p
    ##                   ##
Operator negacji Y=|~p
A2:  Y=~p         #  B2: ~Y= p
    ##                   ##
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Gdzie:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Zadanie:
Dane są trzy zdania „żarówka świeci”:
1.
Żarówka świeci
2.
Jaś wypowiada zdanie „żarówka świeci” gdzie my widzimy żarówkę o której mówi Jaś
3.
Jaś wypowiada zdanie „żarówka świeci” gdzie my nie widzimy żarówki o której mówi Jaś

Rozwiązanie:
W punktach 1 i 2 nie ma mowy by świat martwy (1) albo świat żywy (2) nas okłamał.
Stąd zdanie „żarówka świeci” przyporządkowujemy do punktu A3.
A3: Y=1
Czytamy:
Prawdą jest (=1), że żarówka świeci (Y)
Prawo Prosiaczka:
A3: (Y=1) = B3: (~Y=0)
Stąd zdanie tożsame do A3:
B3: (~Y=0)
Czytamy:
Fałszem jest (=0), że żarówka nie świeci (~S)
Genialność praw Prosiaczka każdy widzi.

W punkcie 3 Jaś ma wolną wolę i może nas okłamywać, zatem zdanie „żarówka świeci” musimy przypisać do punktu A1.
A1.
Jaś mówi „żarówka świecie” (gdzie nie widzimy żarówki o której mówi Jaś)
Y=S
Co w logice jedynek oznacza:
Y=1 <=> S=1
Czytamy:
Jaś mówi prawdę (Y=1) wtedy i tylko wtedy gdy żarówka świeci się (S=1)

… a kiedy Jaś nie mówi prawdy (~Y=1)
Negujemy funkcję A1 stronami:
B1.
~Y=~S
Co w logice jedynek oznacza:
~Y=1 <=> ~S=1
Czytamy:
Jaś nie mówi prawdy (~Y=1) wtedy i tylko wtedy gdy żarówka nie świeci się (~S=1)

20.4 Operatory jednoargumentowe w tabeli prawdy
Kod:

TJ
Tabela wszystkich możliwych operatorów jednoargumentowych
Operator transmisji Y|=p
A1:  Y= p         #  B1: ~Y=~p
    ##                   ##
Operator negacji Y=|~p
A2:  Y=~p         #  B2: ~Y= p
    ##                   ##
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
Stąd mamy:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne (Y,~Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

Doskonale widać, że w tabeli TJ definicje obu znaczków # i ## są perfekcyjnie spełnione.

Zapiszmy zdanie zawsze prawdziwe Y=1 i zawsze fałszywe Y=0 w powiązaniu ze zmienną p
Kod:

ZZP:
Definicja zdania zawsze prawdziwego Y=p+~p=D=1
   p + ~p  Y=p+~p=D =1
A: 1 +  0  1
B: 0 +  1  1
Gdzie:
D - dziedzina wspólna dla p i ~p
Y - stała binarna o wartości logicznej 1

Kod:

ZZF:
Definicja zdania zawsze fałszywego Y=p*~p=[]=0
   p * ~p  Y=p*~p=[]=0
A: 1 *  0  0
B: 0 *  1  0
Gdzie:
[] - zbiór/zdarzenie puste
Y - stała binarna o wartości logicznej 0

Definicja zmiennej binarnej:
Zmienna binarna to symbol mogący w osi czasu przyjmować dwie wartości logiczne {0,1}.

W tabelach ZZP i ZZF zmiennymi binarnymi są symbole p i ~p co widać w kolumnach p i ~p.

Definicja stałej binarnej:
Stała binarna to symbol będący w osi czasu twardą prawdą (ZZP_Y), albo twardym zerem (ZZF_Y)

W tabeli ZZP symbol Y jest stałą binarną o wartości logicznej twardej jedynki.
W tabeli ZZF symbol Y jest stałą binarną o wartości logicznej twardego zera.
Nie ma możliwości w czasie od minus do plus nieskończoności, by stała binarna przyjęła przeciwną
wartość logiczną.

W świecie rzeczywistym, opisane wyżej właściwości zmiennych binarnych i stałych binarnych możemy zaobserwować na oscyloskopie, przyrządzie pomiarowym służącym do obserwacji szybkich przebiegów zmiennych.

20.4.1 Operatory jednoargumentowe w tabelach zero-jedynkowych

Definicja operatora logicznego jednoargumentowego Y|=f(p):
Operator logiczny jednoargumentowy Y|=f(p) to układ równań logicznych dający odpowiedź na pytanie o Y i ~Y.

Innymi słowy:
1.
Dana jest funkcja logiczna w logice dodatniej (bo Y)
Y=f(p)
… a kiedy zajdzie ~Y?
#
2.
Negujemy dwustronnie funkcje logiczną (1) w logice dodatniej (bo Y):
~Y=~f(p)
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Stąd mamy:
Kod:

TF1
Zero-jedynkowa tabela prawdy jednoargumentowych operatorów logicznych
Czyli:
Tabela prawdy jednoargumentowych funkcji logicznych Y=f(p)
w logice dodatniej (bo Y) i w logice ujemnej (bo ~Y)
         A0:            A1:             A2:                 A3:
   p ~p  Y=p  ##  p ~p  Y=~p  ##  p ~p  Y=p+~p=1  ##  p ~p  Y=p*~p=0
A: 1  0  1    ##  1  0  0     ##  1  0  1         ##  1  0  0
B: 0  1  0    ##  0  1  1     ##  0  1  1         ##  0  1  0
   #  #  #    ##  #  #  #     ##  #  #  #         ##  #  #  #
         B0:            B1:             B2:                 B3:
  ~p  p ~Y=~p ## ~p  p ~Y=p   ## ~p  p ~Y=~p*p=0  ## ~p  p ~Y=~p+p=1
C: 0  1  0    ##  0  1  1     ##  0  1  0         ##  0  1  1
D: 1  0  1    ##  1  0  0     ##  1  0  0         ##  1  0  1
   1  2  3        4  5  6         7  8  9            10 11 12
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji funkcji logicznych
p i Y muszą być wszędzie tymi samymi p i Y inaczej błąd podstawienia

Definicja znaczka różne #
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##
Dwie funkcje logiczne {Y, ~Y} są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest zaprzeczeniem drugiej.

Doskonale widać, że tabela TF1 perfekcyjnie spełnia zarówno definicję znaczka różne # jak i definicję znaczka różne na mocy definicji ##

Dokładnie ta sama tabela zapisana prościej, wyłącznie funkcjami logicznymi Y i ~Y bez rozpisywania w tabelach zero-jedynkowych.
Kod:

TJ
Operatory logiczne jednoargumentowe Y|=f(p):
1.
Operator transmisji Y|=p to układ równań logicznych A0 i B0
Funkcja transmisji         |Funkcja transmisji
w logice dodatniej (bo Y)  |w logice ujemnej (bo ~Y)
A0: Y= p                   #  B0: ~Y=~p
   ##                             ##
2.
Operator negacji Y|=~p to układ równań logicznych A1 i B1
Funkcja negacji            |Funkcja negacji
w logice dodatniej (bo Y)  |w logice ujemnej (bo ~Y)
A1: Y=~p                   #  B1: ~Y= p
   ##                             ##
3.
Operator zdania zawsze prawdziwego Y|=p+~p to układ równań A2 i B2
Zdanie zawsze prawdziwe    |Zdanie zawsze fałszywe
w logice dodatniej (bo Y)  |w logice ujemnej (bo ~Y)
A2: Y= p+~p=1           #  B2: ~Y= p*~p=0
   ##                             ##
4.
Operator zdania zawsze fałszywego Y|=p*~p to układ równań A3 i B3
Zdanie zawsze fałszywe     |Zdanie zawsze prawdziwe
w logice dodatniej (bo Y)  |w logice ujemnej (bo ~Y)
A3: Y= p*~p=0           #  B3: ~Y= p+~p=1

Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji funkcji logicznych
p i Y muszą być wszędzie tymi samymi p i Y inaczej błąd podstawienia

Definicja znaczka różne #
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##
Dwie funkcje logiczne Y są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest zaprzeczeniem drugiej.

Doskonale widać, że tabela TJ perfekcyjnie spełnia zarówno definicję znaczka różne # jak i definicję znaczka różne na mocy definicji ##

20.4.2 Prawo Grzechotnika - Armagedon ziemskiego rachunku zero-jedynkowego

Film powinien zaczynać się od trzęsienia ziemi, potem zaś napięcie ma nieprzerwanie rosnąć
Alfred Hitchcock.


Największą tragedią ziemskiego rachunku zero-jedynkowego jest fakt, że w bramkach logicznych po stronie wejścia cyfrowego widzi on zmienne binarne w logice dodatniej (bo p) i ujemnej (bo ~p), ale nie widzi dokładnie tego samego po stronie wyjścia cyfrowego Y, tu obowiązuje bezwzględny zakaz widzenia wyjścia Y w logice ujemnej (bo ~Y).
Odpowiednikiem tego faktu w matematyce klasycznej byłoby widzenie w układzie Kartezjańskim na osi X zmiennych dodatnich (x) i zmiennych ujemnych (~x) z zakazem widzenia dokładnie tego samego na osi Y, gdzie dozwolone byłoby widzenie jedynie zmiennych dodatnich (y).
Czy ktokolwiek wyobraża sobie współczesną matematykę z takim upośledzonym układem Kartezjańskim?

Aktualny rachunek zero-jedynkowy ziemskich matematyków operuje tylko i wyłącznie na wyrażeniach algebry Boole’a, czyli na prawych stronach funkcji logicznych zapisanych w tabeli TJ
Dowód:
W całym Internecie (plus podręczniki matematyki) kolumny wynikowe w rachunku zero-jedynkowym opisywane są wyłącznie wyrażeniami algebry Boole’a, a nie funkcjami logicznymi Y i ~Y jak to jest w algebrze Kubusia.
W porywach (rzadkich przypadkach) ziemskiego rachunku zero-jedynkowego znajdziemy zapis funkcji logicznej Y w logice dodatniej (bo Y), ale nigdzie nie znajdziemy tej samej funkcji logicznej w logice ujemnej (bo ~Y).

Usuńmy zatem wszystkie funkcje logiczne Y i ~Y z tabeli TJ pozostawiając jedynie wyrażenia algebry Boole’a
Kod:

TJ"
Operatory logiczne jednoargumentowe Y|=f(p):
1.
Operator transmisji Y|=p to układ równań logicznych A0 i B0
A0: p                      #  B0: ~p
   ##                             ##
2.
Operator negacji Y|=~p to układ równań logicznych A1 i B1
A1:~p                      #  B1:  p
   ##                             ##
3.
Operator zdania zawsze prawdziwego Y|=p+~p to układ równań A2 i B2
A2: p+~p=1                 #  B2: p*~p=0
   ##                             ##
4.
Operator zdania zawsze fałszywego Y|=p*~p to układ równań A3 i B3
A3: p*~p=0                 #  B3: p+~p=1

Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji funkcji logicznych
p i Y muszą być wszędzie tymi samymi p i Y inaczej błąd podstawienia

Po usunięciu funkcji logicznych Y i ~Y najważniejszy znaczek logiki matematycznej, znaczek różne na mocy definicji ## leży gruzach bowiem w tabeli TJ" zachodzą następujące tożsamości logiczne
Kod:

A0: p                      =  B1:  p
A1: ~p                     =  B0: ~p
A2: p+~p=1                 =  B3:  p+~p=1
A3: p*~p=0                 =  B2:  p*~p=0

Stąd mamy:
Prawo Grzechotnika:
Ziemski rachunek zero-jedynkowy który nie widzi funkcji logicznej w logice dodatniej (bo Y) i funkcji logicznej w logice ujemnej (bo ~Y) jest wewnętrznie sprzeczny na poziomie funkcji logicznych.
cnd

20.5 Operator transmisji A0: Y|=p w rachunku zero-jedynkowym

Kod:

TF1
Tabela prawdy jednoargumentowych funkcji logicznych Y=f(p)
w logice dodatniej (bo Y) i w logice ujemnej (bo ~Y)
         A0:            A1:             A2:                A3:
   p ~p  Y=p  ##  p ~p  Y=~p  ##  p ~p  Y=p+~p=1 ##  p ~p  Y=p*~p=0
A: 1  0  1    ##  1  0  0     ##  1  0  1        ##  1  0  0
B: 0  1  0    ##  0  1  1     ##  0  1  1        ##  0  1  0
   #  #  #    ##  #  #  #     ##  #  #  #        ##  #  #  #
         B0:            B1:             B2:                B3:
  ~p  p ~Y=~p ## ~p  p ~Y=p   ## ~p  p ~Y=~p*p=0 ## ~p  p ~Y=~p+p=1
C: 0  1  0    ##  0  1  1     ##  0  1  0        ##  0  1  1
D: 1  0  1    ##  1  0  0     ##  1  0  0        ##  1  0  1
   1  2  3        4  5  6         7  8  9           10 11 12
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji funkcji logicznych
p i Y muszą być wszędzie tymi samymi p i Y inaczej błąd podstawienia

Definicja operatora transmisji Y|=p:
Operator transmisji Y|=p to układ równań logicznych funkcji transmisji A0: Y=p w logice dodatniej (bo Y) oraz funkcji transmisji B0: ~Y=~p w logice ujemnej (bo ~Y)
A0.
Y=p
co w logice jedynek oznacza:
Y=1 <=> p=1
bo w standardzie dodatnim języka potocznego jedynki są domyślne.
#
… a kiedy zajdzie ~Y?
Negujemy równanie A0 stronami:
B0.
~Y=~p
co w logice jedynek oznacza:
~Y=1 <=> ~p=1
bo w standardzie dodatnim języka potocznego jedynki są domyślne.
Gdzie:
# - różne w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

20.5.1 Przykład operatora transmisji A0: Y|=K

Pani w przedszkolu A0 wypowiada zdanie:
A0.
Jutro pójdziemy do kina
Y=K
To samo w logice formalnej:
p=K (kino)
stąd:
Y=p
Doskonale widać, że zdanie A0: Y=K możemy przyporządkować wyłącznie do kolumny A0B0
Kod:

TF1
Tabela prawdy jednoargumentowych funkcji logicznych
         A0:            A1:             A2:                A3:
   K ~K  Y=K  ##  p ~p  Y=~p  ##  p ~p  Y=p+~p=1 ##  p ~p  Y=p*~p=0
A: 1  0  1    ##  1  0  0     ##  1  0  1        ##  1  0  0
B: 0  1  0    ##  0  1  1     ##  0  1  1        ##  0  1  0
   #  #  #    ##  #  #  #     ##  #  #  #        ##  #  #  #
         B0:            B1:             B2:                B3:
  ~K  K ~Y=~K ## ~p  p ~Y=p   ## ~p  p ~Y=~p*p=0 ## ~p  p ~Y=~p+p=1
C: 0  1  0    ##  0  1  1     ##  0  1  0        ##  0  1  1
D: 1  0  1    ##  1  0  0     ##  1  0  0        ##  1  0  1
   1  2  3        4  5  6         7  8  9           10 11 12

Przykład A0
Pani w przedszkolu A0 wypowiada zdanie:
A0.
Jutro pójdziemy do kina
A0: Y=K
co w logice jedynek oznacza:
A0: Y=1 <=> K=1
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy juro pójdziemy do kina (K=1)

Zuzia do Jasia (oboje po 5 wiosenek).
Czy wiesz kiedy pani nie dotrzyma słowa (~Y=1)?
Jaś:
Oczywiście, że wiem.
Negujemy równanie A0 stronami:
B0: ~Y=~K
co w logice jedynek oznacza:
B0: ~Y=1 <=> ~K=1
Czytamy:
Pani nie dotrzyma słowa (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1)

Jak widzimy, obsługą naszego przykładu zajmuje się wyłącznie kolumna 3.
W części A0 doskonale widać że:
Y=1 <=> K=1
W części B0 doskonale widać, że:
~Y=1 <=> ~K=1
cnd

Wnioski:
1.
Zauważmy, że nasze zdanie A0: Y=K w logice dodatniej (bo Y) możemy umiejscowić tylko i wyłącznie w obszarze 123.
2.
Także odpowiedź B0 na pytanie o ~Y możemy umiejscowić tylko i wyłącznie w obszarze 123.
3.
Z powyższego wynika, że dowolne zdanie z obszaru 123 jest różne na mocy definicji ## od jakiegokolwiek zdania spoza tego obszaru.
Innymi słowy:
Nie istnieje prawo logiki matematycznej które by wiązało ze sobą dowolną funkcję logiczną z obszaru 123 z jakąkolwiek funkcją logiczną spoza tego obszaru.
cnd

Stąd mamy wyprowadzone prawo Puchacza.
Prawo Puchacza:
Dowolna funkcja logiczna jednoargumentowa może należeć do jednego i tylko jednego operatora logicznego jednoargumentowego

20.6 Operator negacji A1: Y|=~p

Kod:

TF1
Tabela prawdy jednoargumentowych funkcji logicznych Y=f(p)
w logice dodatniej (bo Y) i w logice ujemnej (bo ~Y)
         A0:            A1:             A2:                A3:
   p ~p  Y=p  ##  p ~p  Y=~p  ##  p ~p  Y=p+~p=1 ##  p ~p  Y=p*~p=0
A: 1  0  1    ##  1  0  0     ##  1  0  1        ##  1  0  0
B: 0  1  0    ##  0  1  1     ##  0  1  1        ##  0  1  0
   #  #  #    ##  #  #  #     ##  #  #  #        ##  #  #  #
         B0:            B1:             B2:                B3:
  ~p  p ~Y=~p ## ~p  p ~Y=p   ## ~p  p ~Y=~p*p=0 ## ~p  p ~Y=~p+p=1
C: 0  1  0    ##  0  1  1     ##  0  1  0        ##  0  1  1
D: 1  0  1    ##  1  0  0     ##  1  0  0        ##  1  0  1
   1  2  3        4  5  6         7  8  9           10 11 12
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji funkcji logicznych
p i Y muszą być wszędzie tymi samymi p i Y inaczej błąd podstawienia

Definicja operatora negacji Y|=~p:
Operator negacji Y|=~p to układ równań logicznych funkcji negacji A1: Y=~p w logice dodatniej (bo Y) oraz funkcji negacji B1: ~Y=p w logice ujemnej (bo ~Y)
A1.
Y=~p
co w logice jedynek oznacza:
Y=1 <=> ~p=1
bo w standardzie dodatnim języka potocznego jedynki są domyślne.
#
… a kiedy zajdzie ~Y?
Negujemy równanie A1 stronami:
B1.
~Y=p
co w logice jedynek oznacza:
~Y=1 <=> p=1
bo w standardzie dodatnim języka potocznego jedynki są domyślne.
Gdzie:
# - różne w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

20.6.1 Przykład operatora negacji A1: Y|=~K

Przykład zdania wypowiedzianego podlegającego pod operator negacji A1: Y|=>~p

Pani w przedszkolu A1 wypowiada zdanie:
A1.
Jutro nie pójdziemy do kina
Y=~K
To samo w logice formalnej:
p=K (kino)
~p=~(K)
~p=~K (nie (~) kino K)
stąd:
Y=~p
Doskonale widać, że zdanie A1: Y=~K możemy przyporządkować wyłącznie do kolumny A1B1
Kod:

TF1
Tabela prawdy jednoargumentowych funkcji logicznych
         A0:            A1:             A2:                A3:
   p ~q  Y=q  ##  K ~K  Y=~K  ##  p ~p  Y=p+~p=1 ##  p ~p  Y=p*~p=0
A: 1  0  1    ##  1  0  0     ##  1  0  1        ##  1  0  0
B: 0  1  0    ##  0  1  1     ##  0  1  1        ##  0  1  0
   #  #  #    ##  #  #  #     ##  #  #  #        ##  #  #  #
         B0:            B1:             B2:                B3:
  ~p  q ~Y=~p ## ~K  K ~Y=K   ## ~p  p ~Y=~p*p=0 ## ~p  p ~Y=~p+p=1
C: 0  1  0    ##  0  1  1     ##  0  1  0        ##  0  1  1
D: 1  0  1    ##  1  0  0     ##  1  0  0        ##  1  0  1
   1  2  3        4  5  6         7  8  9           10 11 12

Przykład A1
Pani w przedszkolu A1 wypowiada zdanie:
A1.
Jutro nie pójdziemy do kina
A1: Y = ~K
co w logice jedynek oznacza:
Y=1 <=> ~K=1
Czytamy:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1).
Y=1 <=> ~K=1

Zuzia do Jasia:
Czy wiesz kiedy pani nie dotrzyma słowa (~Y=1)?
Jaś:
Oczywiście, że wiem.
Negujemy równanie A1 stronami:
B1: ~Y=K
co w logice jedynek oznacza:
B1: ~Y=1 <=> K=1
Czytamy:
Pani nie dotrzyma słowa (~Y=1) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1)

Jak widzimy, obsługą naszego przykładu zajmuje się wyłącznie kolumna 6.
W części A1 doskonale widać że:
Y=1 <=> ~K=1
W części B1 doskonale widać, że:
~Y=1 <=> K=1
cnd

Wnioski:
1.
Zauważmy, że nasze zdanie A1: Y=~K w logice dodatniej (bo Y) możemy umiejscowić tylko i wyłącznie w obszarze 456.
2.
Także odpowiedź B1 na pytanie o ~Y możemy umiejscowić tylko i wyłącznie w obszarze 456.
3.
Z powyższego wynika, że dowolne zdanie z obszaru 456 jest różne na mocy definicji ## od jakiegokolwiek zdania spoza tego obszaru.
Innymi słowy:
Nie istnieje prawo logiki matematycznej które by wiązało ze sobą dowolną funkcję logiczną z obszaru 456 z jakąkolwiek funkcją logiczną spoza tego obszaru.
cnd

Stąd mamy wyprowadzone prawo Puchacza.
Prawo Puchacza:
Dowolna funkcja logiczna jednoargumentowa może należeć do jednego i tylko jednego operatora logicznego jednoargumentowego

20.7 Operator zdania zawsze prawdziwego A2: Y|=p+~p

Kod:

TF1
Tabela prawdy jednoargumentowych funkcji logicznych Y=f(p)
w logice dodatniej (bo Y) i w logice ujemnej (bo ~Y)
         A0:            A1:             A2:                A3:
   p ~p  Y=p  ##  p ~p  Y=~p  ##  p ~p  Y=p+~p=1 ##  p ~p  Y=p*~p=0
A: 1  0  1    ##  1  0  0     ##  1  0  1        ##  1  0  0
B: 0  1  0    ##  0  1  1     ##  0  1  1        ##  0  1  0
   #  #  #    ##  #  #  #     ##  #  #  #        ##  #  #  #
         B0:            B1:             B2:                B3:
  ~p  p ~Y=~p ## ~p  p ~Y=p   ## ~p  p ~Y=~p*p=0 ## ~p  p ~Y=~p+p=1
C: 0  1  0    ##  0  1  1     ##  0  1  0        ##  0  1  1
D: 1  0  1    ##  1  0  0     ##  1  0  0        ##  1  0  1
   1  2  3        4  5  6         7  8  9           10 11 12
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji funkcji logicznych
p i Y muszą być wszędzie tymi samymi p i Y inaczej błąd podstawienia

Definicja operatora zdania zawsze prawdziwego Y|=p+~p:
Operator zdania zawsze prawdziwego Y|=p+~p to układ równań funkcji logicznej A2: Y=p+~p=1 w logice dodatniej (bo Y) oraz funkcji logicznej B2: ~Y=~p*p=0 w logice ujemnej (bo ~Y)

A2.
Funkcja logiczna w logice dodatniej (bo Y)
A2: Y=p+~p =1 - na mocy prawa algebry Boole’a: p+~p=1
co w logice jedynek oznacza:
A2: Y=1 <=> p=1 lub ~p=1
Czytamy:
Prawdą jest (=1) że funkcja logiczna Y ma wartość logiczną twardej jedynki (Y=1), niezależnie od tego czy zajdzie p=1 czy też ~p=1
Doskonale to widać w kolumnie Y: A2_9

… a kiedy zajdzie ~Y?
Negujemy funkcję logiczną A2 stronami:
B2: ~Y=~(p+~p) =0
Na mocy prawa De Morgana zapisujemy:
B2: ~Y=~p*p =0 - na mocy prawa algebry Boole'a: ~p*p=0
Środkowy człon wolno nam pominąć bo jest zbiorem/zdarzeniem pustym [].
Stąd mamy:
B2: ~Y=0
Czytamy:
Fałszem jest (=0) że zajdzie ~Y
Doskonale to widać w kolumnie ~Y: B2_9

20.7.1 Przykład operatora zdania zawsze prawdziwego A2: Y|=K+~K

Pani w przedszkolu A2 wypowiada zdanie:
A2.
Jutro pójdziemy do kina (K=1) lub nie pójdziemy do kina (~K=1)
Y = K+~K =1 - na mocy prawa algebry Boole’a: p+~p=1
To samo w zapisie formalnym:
p=K
Stąd mamy:
A2: Y = p+~p =1
Jak widzimy zdanie A2 możemy ulokować tylko i wyłącznie w kolumnie A2B2
Kod:

TF1
Tabela prawdy jednoargumentowych funkcji logicznych
         A0:            A1:             A2:                A3:
   p ~q  Y=q  ##  K ~K  Y=~K  ##  K ~K  Y=K+~K=1 ##  p ~p  Y=p*~p=0
A: 1  0  1    ##  1  0  0     ##  1  0  1        ##  1  0  0
B: 0  1  0    ##  0  1  1     ##  0  1  1        ##  0  1  0
   #  #  #    ##  #  #  #     ##  #  #  #        ##  #  #  #
         B0:            B1:             B2:                B3:
  ~p  q ~Y=~p ## ~K  K ~Y=K   ## ~K  K ~Y=~K*K=0 ## ~p  p ~Y=~p+p=1
C: 0  1  0    ##  0  1  1     ##  0  1  0        ##  0  1  1
D: 1  0  1    ##  1  0  0     ##  1  0  0        ##  1  0  1
   1  2  3        4  5  6         7  8  9           10 11 12

Przykład A2
Pani w przedszkolu A2 wypowiada zdanie:
A2.
Jutro pójdziemy do kina (K=1) lub nie pójdziemy do kina (~K=1)
Y = K+~K =1 - na mocy prawa algebry Boole’a: p+~p=1
Co w logice jedynek oznacza:
Y=1 <=> K=1 lub ~K=1
Czytamy:
Prawdą jest (=1), że pani jutro dotrzyma słowa (Y), niezależnie od tego czy pójdziemy do kina (K), czy też nie pójdziemy do kina (~K)
Z chwilą wypowiedzenia zdania A2 pani ustawiła tu twardą jedynkę i nie ma szans na zostanie w dniu jutrzejszym kłamczuchą.

#
… a kiedy zajdzie ~Y?
Negujemy dwustronnie funkcje logiczną Y
B2: ~Y = ~(K+~K) =0
Na mocy prawa De Morgana zapisujemy:
B2: ~Y=~K*K =0 - na mocy prawa algebry Boole'a: ~p*p=0
Środkowy człon wolno nam pominąć bo jest zbiorem/zdarzeniem pustym [].
Stąd mamy:
B2: ~Y=0
Czytamy:
Fałszem jest (=0) że jutro pani nie dotrzyma słowa (~Y)
Doskonale to widać w kolumnie ~Y: B2_9

Znaczenie symbolu Y:
Y - pani dotrzyma słowa (Y=1)
~Y - panie nie dotrzyma słowa (~Y=1)

Wniosek
Pani przedszkolanka w przedszkolu wypowiadając zdanie A2: Y=K+~K=1 nie ma szans na nie dotrzymanie słowa w dniu jutrzejszym B2: ~Y=~K*K=0
Bo prawo Prosiaczka:
A2: (Y=1) = B2: (~Y=0)
cnd

Podsumowanie:
1.
Jak widzimy, obsługą naszego przykładu zajmuje się wyłącznie kolumna 9.
2.
Z powyższego wynika, że dowolne zdanie z obszaru 789 jest różne na mocy definicji ## od jakiegokolwiek zdania spoza tego obszaru.
Innymi słowy:
Nie istnieje prawo logiki matematycznej które by wiązało ze sobą dowolną funkcję logiczną z obszaru 789 z jakąkolwiek funkcją logiczną spoza tego obszaru.

Stąd mamy wyprowadzone prawo Puchacza.
Prawo Puchacza:
Dowolna funkcja logiczna jednoargumentowa może należeć do jednego i tylko jednego operatora logicznego jednoargumentowego

Zauważmy, że powyższy przykład, choć matematycznie poprawny to w istocie nikomu niepotrzebna sztuka dla sztuki, bo nikt przy zdrowych zmysłach nie sypie zdaniami zawsze prawdziwymi typu Y=K+~K. Podstawowe zastosowanie stałych binarnych A3B3 i A4B4 to definiowanie nowych pojęć niezbędne już w wieku niemowlęcym (pkt. 20.2.1)

20.8 Operator zdania zawsze fałszywego A3: Y|=p*~p

Kod:

TF1
Tabela prawdy jednoargumentowych funkcji logicznych Y=f(p)
w logice dodatniej (bo Y) i w logice ujemnej (bo ~Y)
         A0:            A1:             A2:                A3:
   p ~p  Y=p  ##  p ~p  Y=~p  ##  p ~p  Y=p+~p=1 ##  p ~p  Y=p*~p=0
A: 1  0  1    ##  1  0  0     ##  1  0  1        ##  1  0  0
B: 0  1  0    ##  0  1  1     ##  0  1  1        ##  0  1  0
   #  #  #    ##  #  #  #     ##  #  #  #        ##  #  #  #
         B0:            B1:             B2:                B3:
  ~p  p ~Y=~p ## ~p  p ~Y=p   ## ~p  p ~Y=~p*p=0 ## ~p  p ~Y=~p+p=1
C: 0  1  0    ##  0  1  1     ##  0  1  0        ##  0  1  1
D: 1  0  1    ##  1  0  0     ##  1  0  0        ##  1  0  1
   1  2  3        4  5  6         7  8  9           10 11 12
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji funkcji logicznych
p i Y muszą być wszędzie tymi samymi p i Y inaczej błąd podstawienia

Definicja operatora zdania zawsze fałszywego Y|=p*~p:
Operator zdania zawsze fałszywego Y|=p*~p to układ równań logicznych A3: Y=p*~p=0 w logice dodatniej (bo Y) oraz B3: ~Y=~p+p=1 w logice ujemnej (bo ~Y)

A3.
Funkcja logiczna w logice dodatniej (bo Y)
A3: Y=p*~p =0 - na mocy prawa algebry Boole’a: p*~p=0
Środkowy człon wolno nam pominąć bo jest zbiorem/zdarzeniem pustym [].
Stąd mamy:
A3: Y=0
Czytamy:
Fałszem jest (=0) że zajdzie Y
Doskonale to widać w kolumnie Y: A3_12

… a kiedy zajdzie ~Y?
Negujemy funkcję logiczną A3 stronami:
B3: ~Y=~(p*~p) =1
Na mocy prawa De Morgana zapisujemy:
B3: ~Y=~p+p =1 - na mocy prawa algebry Boole'a: ~p+p=1
co w logice jedynek oznacza:
B3: ~Y=1 <=> ~p=1 lub p=1
Czytamy:
Prawdą jest (=1) że zajdzie ~Y, niezależnie od tego czy zajdzie p=1 czy też ~p=1.
Musi zajść p=1 albo ~p=1 - trzeciej możliwości brak.
Doskonale to widać w kolumnie ~Y: B3_12

20.8.1 Przykład operatora zdania zawsze fałszywego A3: Y|=K*~K

Przykład A3
Pani w przedszkolu A3 wypowiada zdanie:
A3.
Jutro pójdziemy do kina i nie pójdziemy do kina
A3: Y = K*~K =0 - na mocy prawa algebry Boole’a: p*~p=0
To samo w zapisie formalnym:
p=K
Stąd mamy:
A3: Y = p*~p =0
Jak widzimy zdanie A3 możemy ulokować tylko i wyłącznie w kolumnie A3B3
Kod:

TF1
Tabela prawdy jednoargumentowych funkcji logicznych
         A0:            A1:             A2:                A3:
   p ~p  Y=p  ##  p ~p  Y=~p  ##  p ~p  Y=p+~p=1 ##  p ~p  Y=K*~K=0
A: 1  0  1    ##  1  0  0     ##  1  0  1        ##  1  0  0
B: 0  1  0    ##  0  1  1     ##  0  1  1        ##  0  1  0
   #  #  #    ##  #  #  #     ##  #  #  #        ##  #  #  #
         B0:            B1:             B2:                B3:
  ~p  p ~Y=~p ## ~p  p ~Y=p   ## ~p  p ~Y=~p*p=0 ## ~p  p ~Y=~K+K=1
C: 0  1  0    ##  0  1  1     ##  0  1  0        ##  0  1  1
D: 1  0  1    ##  1  0  0     ##  1  0  0        ##  1  0  1
   1  2  3        4  5  6         7  8  9           10 11 12

Przykład A3
Pani w przedszkolu A3 wypowiada zdanie:
A3.
Jutro pójdziemy do kina i nie pójdziemy do kina
A3: Y = K*~K =0 - na mocy prawa algebry Boole’a: p*~p=0
Środkowy człon wolno nam pominąć bo jest zbiorem/zdarzeniem pustym [].
Stąd mamy:
A3: Y=0
Czytamy:
Fałszem jest (=0) że pani jutro dotrzyma słowa (Y)
Doskonale to widać w kolumnie Y: A3_12

#
… a kiedy pani nie dotrzyma słowa (~Y=1)?
Negujemy dwustronnie funkcje logiczną Y.
B3.
~Y = ~(K*~K) =0
Na mocy prawa De Morgana:
B3: ~Y=~K+K =1 - bo prawo algebry Boole'a: ~p+p =1
co w logice jedynek oznacza:
B3: (~Y=1) <=> ~K=1 lub K=1
Czytamy:
Prawdą jest (=1) że pani nie dotrzyma słowa (~Y), niezależnie od tego czy jutro pójdziemy do kina (K=1) czy też nie pójdziemy do kina (~K=1)
Jutro możemy pójść do kina (K=1) albo nie pójść do kina (~K=1) - trzeciej możliwości brak.
Doskonale to widać w kolumnie ~Y: B3_12

Znaczenie symbolu Y:
Y - pani dotrzyma słowa (Y=1)
~Y - pani nie dotrzyma słowa (~Y=1)

Wniosek:
Pani przedszkolanka w przedszkolu A3 wypowiadając zdanie A3 nie ma szans na dotrzymanie słowa (Y=1) w dniu jutrzejszym.
W momencie wypowiedzenia zdania A3 pani jest kłamczuchą, o czym każdy 5-cio latek wie.

Podsumowanie:
1.
Jak widzimy, obsługą naszego przykładu zajmuje się wyłącznie kolumna 12.
2.
Z powyższego wynika, że dowolne zdanie z obszaru 10:11:12 jest różne na mocy definicji ## od jakiegokolwiek zdania spoza tego obszaru.
Innymi słowy:
Nie istnieje prawo logiki matematycznej które by wiązało ze sobą dowolną funkcję logiczną z obszaru 10:11:12 z jakąkolwiek funkcją logiczną spoza tego obszaru.

Stąd mamy wyprowadzone prawo Puchacza.
Prawo Puchacza:
Dowolna funkcja logiczna jednoargumentowa może należeć do jednego i tylko jednego operatora logicznego jednoargumentowego

Zauważmy, że powyższy przykład, choć matematycznie poprawny to w istocie nikomu niepotrzebna sztuka dla sztuki, bo nikt przy zdrowych zmysłach nie sypie zdaniami zawsze fałszywymi typu Y=K*~K.
Podstawowe zastosowanie stałych binarnych A3B3 i A4B4 to definiowanie nowych pojęć niezbędne już w wieku niemowlęcym (pkt. 20.2.1)

20.9 Podsumowanie operatorów jednoargumentowych Y|=f(x)

Weźmy tabelę zero-jedynkową wszystkich możliwych operatorów jednoargumentowych.
Kod:

TF1
Zero-jedynkowa tabela prawdy jednoargumentowych operatorów logicznych
Czyli:
Tabela prawdy jednoargumentowych funkcji logicznych Y=f(p)
w logice dodatniej (bo Y) i w logice ujemnej (bo ~Y)
         A0:            A1:             A2:                 A3:
   p ~p  Y=p  ##  p ~p  Y=~p  ##  p ~p  Y=p+~p=1  ##  p ~p  Y=p*~p=0
A: 1  0  1    ##  1  0  0     ##  1  0  1         ##  1  0  0
B: 0  1  0    ##  0  1  1     ##  0  1  1         ##  0  1  0
   #  #  #    ##  #  #  #     ##  #  #  #         ##  #  #  #
         B0:            B1:             B2:                 B3:
  ~p  p ~Y=~p ## ~p  p ~Y=p   ## ~p  p ~Y=~p*p=0  ## ~p  p ~Y=~p+p=1
C: 0  1  0    ##  0  1  1     ##  0  1  0         ##  0  1  1
D: 1  0  1    ##  1  0  0     ##  1  0  0         ##  1  0  1
   1  2  3        4  5  6         7  8  9            10 11 12
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji funkcji logicznych
p i Y muszą być wszędzie tymi samymi p i Y inaczej błąd podstawienia

Definicja dziedziny D na której operowaliśmy w naszych przykładach:
K+~K=D=1 - zdarzenie ~K jest uzupełnieniem do wspólnej dziedziny D dla zdarzenia K
K*~K=[]=0 - zdarzenia K i ~K są rozłączne

Znaczenie zmiennych na których operowaliśmy w naszych przykładach wyżej było następujące:
K - jutro pójdziemy do kina
~K - jutro nie pójdziemy do kina
Stąd mamy spełnioną definicję dziedziny D:
K+~K=D=1 - jutro możemy pójść do kina (K) albo nie pójść do kina (~K), trzeciej możliwości brak
K*~K=[]=0 - zdarzenie "pójdziemy do kina" (K) jest rozłączne ze zdarzeniem "nie pójdziemy do kina" (~K)
Chwilą czasową jest tu cały jutrzejszy dzień i w tejże chwili czasowej zdarzenia K i ~K są rozłączne

Definicja dziedziny D na poziomie funkcji logicznej Y:
Definicja dziedziny dla dowolnej funkcji logicznej Y=f(x) (także wieloargumentowej):
Y+~Y =D =1 - funkcja logiczna ~Y jest uzupełnieniem do dziedziny D dla funkcji logicznej Y
Y*~Y =[] =0 - funkcje logiczne Y i ~Y są rozłączne

Znaczenie funkcji logicznych Y i ~Y z naszych przykładów wyżej omówionych:
Y - pani dotrzyma słowa
~Y - pani nie dotrzyma słowa
Stąd mamy spełnioną definicję dziedziny D:
Y+~Y=D=1 - pani może dotrzymać słowa (Y) albo nie dotrzymać słowa (~Y), trzeciej możliwości brak
Y*~Y=[]=0 - pani nie może równocześnie dotrzymać słowa (Y) i nie dotrzymać słowa (~Y)
Chwilą czasową jest tu cały jutrzejszy dzień i w tejże chwili czasowej pani dotrzyma słowa (Y=1) albo nie dotrzyma słowa (~Y=1), trzeciej możliwości brak.


Ostatnio zmieniony przez rafal3006 dnia Pon 7:34, 16 Wrz 2024, w całości zmieniany 5 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 34685
Przeczytał: 26 tematów

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Sob 12:09, 14 Wrz 2024    Temat postu:

Algebra Kubusia - matematyka języka potocznego
Część III Operator dwuargumentowe

Spis treści
1.8 Aksjomatyka algebry Boole’a 1
1.8.1 Aksjomatyka minimalna algebry Boole'a 3
1.9 Sterowanie windą autorstwa 5-cio latków 6
1.10 Algorytm Wuja Zbója przejścia do logiki przeciwnej 9
1.10.1 Prawo Małpki 9
1.11 Równoważność K<=>T w świecie żywym 10
1.12 Definicja spójnika „lub”(+) 12
1.12.1 Definicja operatora „lub”(+) 12
1.12.2 Diagram operatora „lub"(|+) w zdarzeniach niepustych i rozłącznych 12
1.12.3 Definicja spójnika „lub”(+) w zdarzeniach rozłącznych 14
1.12.4 Przykład operatora „lub"(|+) w zdarzeniach niepustych i rozłącznych 14
1.13 Definicja spójnika „i”(*) 16
1.13.1 Definicja operatora „i”(|*) 16
1.13.2 Diagram operatora „i”(|*) w zdarzeniach niepustych i rozłącznych 17
1.13.3 Przykład operatora „i”(|*) w zdarzeniach 18
1.14 Opis tabeli zero-jedynkowej równaniami algebry Boole’a 19
1.14.1 Opis tabeli zero-jedynkowej w logice jedynek 20
1.14.2 Opis tabeli zero-jedynkowej w logice zer 22
1.15 Związek opisu tabel zero-jedynkowych w logice jedynek i w logice zer 23
1.15.1 Prawo Małpki 24
1.15.2 Definicja funkcji alternatywno-koniunkcyjnej 25
1.15.3 Tworzenie tabeli zero-jedynkowej dla funkcji logicznej Y 25
1.16 Funkcje logiczne dwuargumentowe 26
1.16.1 Tabela wszystkich możliwych funkcji dwuargumentowych 27
1.17 Definicja spójników zupełnych w języku potocznym 30
1.17.1 Prawo Puchacza dla spójników zupełnych w języku potocznym 30
1.17.2 Startowa funkcja logiczna 31




1.8 Aksjomatyka algebry Boole’a

Definicja funkcji logicznej Y dwóch zmiennych binarnych p i q:
Funkcja logiczna Y w logice dodatniej (bo Y) dwóch zmiennych binarnych p i q to cyfrowy układ logiczny dający na wyjściu binarnym Y jednoznaczne odpowiedzi na wszystkie możliwe wymuszenia na wejściach p i q.

Definicja minimalnej aksjomatyki algebry Boole’a:
Aksjomatyka minimalna algebry Boole’a to minimalny zestaw definicji i praw algebry Boole’a koniecznych i wystarczających do minimalizacji równań algebry Boole’a.

Należy zaznaczyć, że nasz mózg prezentuje w tym zakresie mistrzostwo świata tzn. z reguły operuje minimalnymi równaniami algebry Boole'a których nie da się minimalizować.

Definicja znaczka w logice matematycznej:
Znaczek w logice matematycznej to symbol zdefiniowany odpowiednią tabelą zero-jedynkową

W algebrze Kubusia zachodzi tożsamość znaczków:
Spójnik „i”(*) z języka potocznego = bramka AND (*) w technice = koniunkcja (*) w matematyce
Spójnik „lub”(+) z języka potocznego = bramka OR(+) w technice = alternatywa (+) w matematyce
Dowód w pkt. 1.9

Definicje spójników „i”(*) i „lub”(+):

I.
(*) - spójnik „i”(*) z języka potocznego człowieka

Znaczek tożsamy w matematyce:
(*) - znaczek koniunkcji
Znaczek tożsamy w technice:
(*) - bramka logiczna AND

Definicja zero-jedynkowa spójnika „i”(*):
Kod:

   p* q  Y=p*q
A: 1* 1  =1
B: 1* 0  =0
C: 0* 1  =0
D: 0* 0  =0
Definicja spójnika „i”(*) w logice jedynek:
Y=1 <=> p=1 i q=1
inaczej:
Y=0
Definicja spójnika „i”(*) w logice zer:
Y=0 <=> p=0 lub q=0
Inaczej:
Y=1


II.
(+) - spójnik „lub”(+) z języka potocznego człowieka

Znaczek tożsamy w matematyce:
(+) - znaczek alternatywy
Znaczek tożsamy w technice:
(+) - bramka logiczna OR

Definicja zero-jedynkowa spójnika „lub”(+):
Kod:

   p+ q  Y=p+q
A: 1+ 1  =1
B: 1+ 0  =1
C: 0+ 1  =1
D: 0+ 0  =0
Definicja spójnika „lub”(+) w logice jedynek:
Y=1 <=> p=1 lub q=1
inaczej:
Y=0
Definicja spójnika „lub”(+) w logice zer:
Y=0 <=> p=0 i q=0
Inaczej:
Y=1

Uwaga:
Przy wypełnianiu tabel zero-jedynkowych w rachunku zero-jedynkowym nie ma znaczenia którą logiką będziemy się posługiwać. W przypadku spójnika „lub”(+) użycie logiki zer jest najszybszym sposobem wypełnienia wynikowej kolumny zero-jedynkowej.

1.8.1 Aksjomatyka minimalna algebry Boole'a

Aksjomatyka minimalna algebry Boole’a to minimalny zestaw definicji i praw algebry Boole’a koniecznych i wystarczających do minimalizacji równań algebry Boole’a.

1.
1=prawda
0=fałsz
Matematyczne związki:
1=~(0)=~0 - prawda (1) to zaprzeczenie (~) fałszu (0)
0=~(1)=~1 - fałsz (0) to zaprzeczenie (~) prawdy (1)

2.
Prawo podwójnego przeczenia:
p =~(~p) - logika dodatnia (bo p) jest tożsama z zanegowaną (~) logiką ujemną (bo ~p)
Prawo zaprzeczenia logiki dodatniej (bo p):
~p=~(p) - logika ujemna (bo ~p) jest tożsama z zanegowaną (~) logiką dodatnią (bo p)

3.
Elementem neutralnym w spójniku „i”(*) jest jedynka
p*1=p - łatwe do zapamiętania przez analogię do zwykłego mnożenia: x*1=x
p+1=1 - to jedyny wyjątek nie mający odpowiednika w zwykłym dodawaniu

4.
Elementem neutralnym w spójniku „lub”(+) jest zero
p+0=p - łatwe do zapamiętania poprzez analogię do zwykłego dodawania: x+0=x
p*0=0 - łatwe do zapamiętania poprzez analogię do zwykłego mnożenia: x*0=0

5.
Definicja dziedziny D w zbiorach:
A: p+~p=D =1 - zbiór ~p jest uzupełnieniem zbioru p do wspólnej dziedziny (D)
B: p*~p=[] =0 - zbiory p i ~p są rozłączne, stąd ich iloczyn logiczny to zbiór pusty []=0
Definicja dziedziny D w zdarzeniach:
C: p+~p=D =1 - zdarzenie ~p jest uzupełnieniem zdarzenia p do wspólnej dziedziny (D)
D: p*~p=[] =0 - zdarzenia p i ~p są rozłączne, stąd ich iloczyn logiczny to zbiór pusty []=0

Przykłady:
5A
Zdanie zawsze prawdziwe w zbiorach:
Dowolna liczba naturalna jest podzielna przez 2 lub nie jest podzielna przez 2
D=LN=[1,2,3,4,5,6,7,8,9..] - zbiór liczb naturalnych, wspólna dziedzina dla P2 i ~P2
P2+~P2=LN =1 - zbiór ~P2=[1,3,5,7,9..] jest uzupełnieniem zbioru P2=[2,4,6,8..] do dziedziny LN
~P2=[LN-P2]=[1,3,5,7,9..] - zbiór liczb naturalnych LN pomniejszony o zbiór liczb parzystych P2
5B.
Zdanie zawsze fałszywe w zbiorach:
Dowolna liczba naturalna jest podzielna przez 2 i nie jest podzielna przez 2
P2*~P2 =[] =0 - zbiory P2=[2,4,6,8..] i ~P2=[1,3,5,7,9..] są rozłączne, stąd ich iloczyn logiczny to 0
Uwaga:
W matematyce zdanie zawsze prawdziwe (5A) i zdanie zawsze fałszywe (5B) to bezużyteczne śmieci.

5C.
Zdanie zawsze prawdziwe w zdarzeniach:
Jutro pójdziemy do kina lub nie pójdziemy do kina
Y = K+~K =D =1 - zdarzenie ~K jest uzupełnieniem zdarzenia K do wspólnej dziedziny D
D={K,~K} - zbiór wszystkich możliwych zdarzeń w dniu jutrzejszym, wspólna dziedzina D
Chwilą czasową jest tu cały jutrzejszy dzień.
5D.
Zdanie zawsze fałszywe w zdarzeniach:
Jutro pójdziemy do kina i nie pójdziemy do kina
Y = K*~K =[] =0 - zdarzenie ~K jest rozłączne ze zdarzeniem K
Chwilą czasową jest tu cały jutrzejszy dzień

6.
Spójniki „i”(*) i „lub”(+) są przemienne
p*q=q*p
p+q=q+p

7.
Prawo redukcji/powielania zmiennych binarnych:
p*p=p
p+p=p

8.
Prawa De Morgana:
p+q = ~(~p*~q)
p*q = ~(~p+~q)

9.
Obsługa wielomianów logicznych jest identyczna jak wielomianów klasycznych pod warunkiem przyjęcia analogii:
Spójnik „lub”(+) to odpowiednik sumy algebraicznej (+) np. x+y
Spójnik „i”(*) to odpowiednik iloczynu algebraicznego (*) np. x*y
Stąd mamy:
Kolejność wykonywania działań w wielomianach logicznych:
przeczenie (~), nawiasy, „i”(*), „lub”(+)
bo robimy analogię do wielomianów klasycznych.

Przykład mnożenia wielomianów logicznych:
Niech będzie dana funkcja logiczna Y:
Y = (p+~q)*(~p+q) - postać koniunkcyjno-alternatywna (koniunkcja alternatyw)
Minimalizujemy:
Y = (p+~q)*(~p+q)
Y = p*~p + p*q +~q*~p + ~q*q - mnożenie logiczne każdego z każdym (jak w matematyce klasycznej)
Y = 0 + p*q + ~q*~p + 0 - prawo algebry Boole'a: x*~x=0
Y = p*q + ~q*~p - prawo algebry Boole'a: x+0=x
Y = p*q + ~p*~q - przemienność x*y=y*x
Stąd:
Nasza funkcja logiczna Y po minimalizacji przybiera postać:
Y = (p+~q)*(~p+q) = p*q + ~p*~q - funkcja alternatywno-koniunkcyjna (alternatywa koniunkcji)

Inny przykład wykorzystania praw algebry Boole’a.
Udowodnij prawo algebry Boole’a:
p + p*q =p
Dowód:
p + p*q = p*1+p*q = p*(1+q) = p*1 =p
Wykorzystane prawa algebry Boole’a:
p=p*1
Wyciągnięcie zmiennej p przed nawias identyczne jak w wielomianach klasycznych
p*(1+q)
1+q =1
p*1=p
cnd

Każde z praw logiki matematycznej można udowodnić w rachunku zero-jedynkowym.
Kod:

Definicja zero-jedynkowa spójnika „lub”(+):
   p+ q  Y=p+q
A: 1+ 1  =1
B: 1+ 0  =1
C: 0+ 1  =1
D: 0+ 0  =0


Przykład 1.
Udowodnij w rachunku zero-jedynkowym prawo rachunku zero-jedynkowego:
p+1 =1
Mamy tu:
p - zmienna binarna, mogąca przyjmować w osi czasu wartości logiczne 1 albo 0.
q=1 - stała binarna, twarda jedynka niezależna od czasu.
Korzystamy z definicji spójnika „lub”(+):
Kod:

Dla p i q=1 mamy:
   p+ q=1  Y=p+1
A: 1+ 1    =1
B: 1+ 1    =1
C: 0+ 1    =1
D: 0+ 1    =1

Stąd mamy dowód prawdziwości prawa rachunku zero-jedynkowego:
p+1 =1
cnd

Przykład 2.
Udowodnij w rachunku zero-jedynkowym prawo algebry Boole’a:
p+~p =1
Korzystamy z definicji spójnika „lub”(+):
Kod:

Dla p i q=~p mamy:
   p+~p  Y=p+~p
A: 1+ 0  =1
B: 1+ 0  =1
C: 0+ 1  =1
D: 0+ 1  =1

Stąd mamy dowód prawdziwości prawa rachunku zero-jedynkowego:
p+~p =1
cnd

Przykład 3.
Udowodnij w rachunku zero-jedynkowym prawo De Morgana dla sumy logicznej „lub”(+):
p+q = ~(~p*~q)
Zaczynamy od definicji spójnika „lub”(+)
Kod:

   p+ q  Y=p+q  ~Y=~(p+q) ~p ~q  ~Y=~p*~q  Y=~(~Y)=~(~p*~q)
A: 1+ 1  =1      =0        0* 0   =0        =1
B: 1+ 0  =1      =0        0* 1   =0        =1
C: 0+ 1  =1      =0        1* 0   =0        =1
D: 0+ 0  =0      =1        1* 1   =1        =0
   1  2   3       4        5  6    7         8
Gdzie:
Y=~(~Y) - prawo podwójnego przeczenia

Tożsamość kolumn wynikowych 3=8 (Y=Y) jest dowodem poprawności prawa De Morgana:
Y = 3: p+q = 8: ~(~p*~q)
#
Tożsamość kolumn wynikowych 4=7 (~Y=~Y) jest dowodem poprawności prawa De Morgana:
~Y = 4: ~(p+q) = 7:~p*~q
Gdzie:
# - różne w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony
cnd

Zadanie dla czytelnika:
Udowodnij w rachunku zero-jedynkowym prawo De Morgana dla iloczynu logicznego „i”(*):
p*q = ~(~p+~q)

1.9 Sterowanie windą autorstwa 5-cio latków

Rozważmy projektowanie sterowania windą.

Przyjmijmy wejście układu windy:
Na poziomie 5-cio latka zakładamy że winda ma dwa przyciski wejściowe układu (zmienne binarne):
Opis przycisku D=drzwi:
Z=1 - drzwi zamknięte (Z)
~Z=1 - drzwi nie zamknięte (~Z)
Opis przycisku P=piętro:
P=1 - przycisk piętro wciśnięty (P)
~P=1 - przycisk piętro nie wciśnięty (~P)

Przyjmijmy wyjście układu windy:
Wyjście układu opisane jest przez zmienną binarną J=jedzie:
J=1 - winda jedzie (J).
~J=1 - winda nie jedzie (~J)

I.
Pani przedszkolanka do Jasia (lat 5):


Powiedz nam Jasiu kiedy winda jedzie (J=1)?
Jaś:
A1.
Winda jedzie (J=1) wtedy i tylko wtedy gdy drzwi są zamknięte (Z=1) i wciśnięty jest przycisk piętro (P=1)
A1: J=Z*P
co w logice jedynek oznacza:
J=1 <=> Z=1 i P=1
Wniosek:
Jaś zaprojektował sterownie windą w logice dodatniej (bo J)

II.
Pani przedszkolanka do Zuzi (lat 5):


Powiedz nam Zuziu kiedy winda nie jedzie (~J=1)?
Zuzia:
B1.
Winda nie jedzie (~J=1) wtedy i tylko wtedy gdy drzwi nie są zamknięte (~Z=1) "lub"(+) nie jest wciśnięty przycisk piętro (~P=1)
B1: ~J = ~Z + ~P
co w logice jedynek oznacza:
~J=1 = ~Z=1 lub ~P=1
Wniosek:
Zuzia zaprojektowała sterowanie windą w logice ujemnej (bo ~J)

Wnioski końcowe:
Rozwiązania Jasia i Zuzi są matematycznie równoważne bo oczywisty związek logiki dodatniej (bo J) i ujemnej (bo ~J) jest następujący:

Jaś:
A1: J=Z*P
Moja logika dodatnia (bo J) to zanegowana logika ujemna (bo ~J), stąd mamy:
J = ~(~J)
Po podstawieniu:
B1: ~J = ~Z + ~P
Mamy:
J = ~(~Z+~P)
czyli:
A1: J = ~(~Z+~P) = Z*P - prawo De Morgana
cnd

Zuzia:
B1: ~J=~Z+~P
Moja logika ujemna (bo ~J) to zanegowana logika dodatnia (bo J), stąd mamy:
~J = ~(J)
Po podstawieniu:
A1: J=Z*P
Mamy:
~J = ~(Z*P)
czyli:
B1: ~J = ~(Z*P) = ~Z+~P - prawo De Morgana
cnd

Doskonale tu widać, że zarówno Jaś jak i Zuzia (oboje po 5 wiosenek) perfekcyjnie znają algebrę Kubusia bo po prostu pod nią podlegają.

Zachodzi matematyczna tożsamość:
Spójnik „i”(*) z języka potocznego = znana inżynierom bramka AND
Spójnik „lub”(+) z języka potocznego = znana inżynierom bramka OR

Przełożenie powyższych zdań na bramki logiczne jest trywialne:
Wszędzie, gdzie wymawiamy spójnik „i”(*) wstawiamy bramę AND.
Wszędzie, gdzie wymawiamy spójnik „lub”(+) wstawiamy bramkę OR
Kod:

T1
Zdania Jasia i Zuzi przełożone na język bramek logicznych „i”(*) i „lub”(+)
                  -------------
 Z------x-------->|           |
        |         |  „i”(*)   |---x--->  A1: J=Z*P (Jaś)
 P--x------------>|           |   |
    |   |         -------------   |
    |   |                         O = # (negator dwukierunkowy)
    |   |    ~Z   -------------   |
    |   |--O----->|           |   |
    |        ~P   | „lub”(+)  |---x--->  A2: ~J=~Z+~P (Zuzia)
    |------O----->|           |
                  -------------
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
O - negator dwukierunkowy (pkt. 1.1.2)
Zachodzi tożsamość znaczków:
# = O

To jest cała filozofia przełożenia logiki matematycznej Jasia i Zuzi na teorię bramek logicznych.

Uwaga:
W użytecznym sterowaniu trzeba wprowadzić dodatkową zmienną binarną sygnalizującą dojechanie windy na żądane piętro, gdzie winda automatycznie staje i przycisk P (piętro) wyskakuje. Przy zamkniętych drzwiach warunkiem koniecznym kolejnej jazdy jest wciśnięcie piętra różnego od tego, na którym winda aktualnie stoi.

1.10 Algorytm Wuja Zbója przejścia do logiki przeciwnej

Algorytm Wuja Zbója to uproszczony sposób przejścia z logiki dodatniej (bo Y) do logiki ujemnej (bo ~Y) i z powrotem.

Algorytm Wuja Zbója przejścia do logiki przeciwnej:
1.
Y = pq+~p~q - zapis dopuszczalny w technice z pominięciem spójnika „i”(*)
Uzupełniamy brakujące nawiasy i spójniki:
1: Y = (p*q)+(~p*~q) - postać alternatywno-koniunkcyjna (alternatywa koniunkcji)
2.
Przejście do logiki ujemnej (bo ~Y) poprzez negację zmiennych i wymianę spójników
2: ~Y = (~p+~q)*(p+q) - postać koniunkcyjno-alternatywna (koniunkcja alternatyw)
Koniec algorytmu Wuja Zbója

Kolejność wykonywania działań w algebrze Kubusia:
przeczenie (~), nawiasy, spójnik „i”(*), spójnik „lub”(+)

1.10.1 Prawo Małpki

Prawo Małpki:
Każda funkcja alternatywno-koniunkcyjna ma swój tożsamy odpowiednik w postaci funkcji koniunkcyjno-alternatywnej (i odwrotnie)

Dowód na przykładzie:
Definicja równoważności Y=p<=>q w spójnikach „i”(*) i „lub”(+):
1: Y = (p<=>q) = p*q + ~p*~q

Algorytm Wuja Zbója przejścia do logiki przeciwnej:
a)
Uzupełniamy brakujące nawiasy i spójniki:
1: Y = (p*q)+(~p*~q) - postać alternatywno-koniunkcyjna (alternatywa koniunkcji)
b)
Przejście do logiki ujemnej (bo ~Y) poprzez negację zmiennych i wymianę spójników
2: ~Y = (~p+~q)*(p+q) - postać koniunkcyjno-alternatywna (koniunkcja alternatyw)
Koniec algorytmu Wuja Zbója

Zauważmy że:
Jeśli wymnożymy wielomian 2 to otrzymamy tożsamą do niego postać alternatywno-koniunkcyjną.
Zróbmy to:
~Y = (~p+~q)*(p+q) = ~p*p + ~p*q + ~q*p + ~q*q = 0 + ~p*q + p*~q + 0 = p*~q + ~p*q
3: ~Y = (p*~q) + (~p*q) - postać alternatywno-koniunkcyjna (alternatywa koniunkcji)

Dla funkcji logicznej 3 ponownie korzystamy z algorytmu Wuja:
Przejście do logiki dodatniej (bo Y) poprzez negację zmiennych i wymianę spójników:
4: Y = (~p+q)*(p+~q) - funkcja koniunkcyjno-alternatywna (koniunkcja alternatyw)

Stąd mamy:
Kod:

Prawo Małpki:
1:  Y = p* q + ~p*~q <=> 4:  Y = (~p+ q)*(p+~q) – logika dodatnia (bo Y)
    #                        #
3: ~Y = p*~q + ~p* q <=> 2: ~Y = (~p+~q)*(p+ q) – logika ujemna (bo ~Y)
Gdzie:
# - dowolna strona znaczka # jest negację drugiej
p, q, Y muszą być wszędzie tymi samymi p, q, Y inaczej błąd podstawienia

Otrzymane funkcje logiczne Y i ~Y nie są tożsame, czyli:
(Y=~Y) =0
ale związane ze sobą spójnikiem "albo"($)

Definicja spójnika "albo"($) w spójnikach "i"(*) i "lub"(+):
p$q = p*~q + ~p*q – poznamy niebawem
Podstawmy:
p=Y
q=~Y
Y$~Y = (Y)*~(~Y) + ~(Y)*(~Y) = Y*Y + ~Y*~Y = Y+~Y=1

Przykład:
Dowolny człowiek mówi prawdę (P) albo nie mówi prawdy (~P)
P$~P =1
Trzeciej możliwości brak

1.11 Równoważność K<=>T w świecie żywym

Definicja równoważności p<=>q w świecie żywym:
Z równoważnością w świecie żywym mamy do czynienia wtedy i tylko wtedy gdy każde z czterech możliwych zdarzeń {A: p*q, B: p*~q, C: ~p*~q, D: ~p*q} ma szansę przyjąć wartość logiczną jeden

Definicja spójnika „<=> - wtedy i tylko wtedy” wyrażonego spójnikami „i”(*) i „lub”(+):
p<=>q = p*q + ~p*~q

W poprzednim punkcie wyprowadziliśmy wszystkie możliwe funkcje alternatywno-koniunkcyjne i koniunkcyjno-alternatywne związane z równoważnością p<=>q (prawo Małpki).
Podstawmy tabeli prawdy dla prawa Małpki konkretny przykład.

Przykład:
Pani w przedszkolu wypowiada obietnicę bezwarunkową:
1.
Jutro pójdziemy do kina tylko wtedy gdy pójdziemy do teatru
Innymi słowy:
Jutro pójdziemy do kina (K) wtedy i tylko wtedy gdy pójdziemy do teatru (T)
K<=>T = A: K*T + C: ~K*~T
Podstawmy celem skrócenia zapisów:
Y = K<=>T

Przyjmijmy następujące znaczenie symbolu Y:
Y - pani dotrzyma słowa (Y)
~Y - pani nie dotrzyma słowa (~Y), czyli pani skłamie (S=~Y)

Definicja równoważności w spójnikach „i”(*) i „lub”(+):
1: Y = A: K*T + C: ~K*~T - funkcja alternatywno-koniunkcyjna (alternatywa koniunkcji)
Co w logice jedynek obowiązującej wyłącznie w postaci alternatywno-koniunkcyjnej oznacza:
1: Y=1 <=> A: K=1 i T=1 lub C: ~K=1 i ~T=1
Czytamy:
Prawdą jest (=1) że pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy:
Ya = K*T=1*1 =1 - jutro pójdziemy do kina (K=1) i do teatru (T=1)
lub
Yc = ~K*~T=1*1=1 - jutro nie pójdziemy do kina (~K=1) i nie pójdziemy do teatru (~T=1)
Gdzie:
Y = Ya+Yc - funkcja logiczna Y jest sumą logiczną funkcji cząstkowych Ya+Yc

Jak widzimy, odpowiedź kiedy pani dotrzyma słowa (Y=1) jest intuicyjnie zrozumiała.

Podstawmy nasz przykład do pierwszej linii w prawie Małpki (pkt. 1.10.1)
Kod:

Prawo Małpki:
1:  Y = p* q + ~p*~q <=> 4:  Y = (~p+ q)*(p+~q) – logika dodatnia (bo Y)
Dla p=K (kino) i q=T (teatr) mamy:
1:  Y = K* T + ~K*~T <=> 4:  Y = (~K+ T)*(K+~T) – logika dodatnia (bo Y)
Gdzie:
# - dowolna strona znaczka # jest negację drugiej
p, q, Y muszą być wszędzie tymi samymi p, q, Y inaczej błąd podstawienia

W punkcie 4 mamy alternatywną odpowiedź na pytanie kiedy pani dotrzyma słowa (Y=1)?
Zapiszmy tą odpowiedź:
Y=(~K+T)*(K+~T)
Czytamy:
Pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy:
Jutro nie pójdziemy do kina (~K) lub pójdziemy do teatru (T)
„i”(*)
Jutro pójdziemy do kina (K) lub nie pójdziemy do teatru (~T)

Doskonale widać, że otrzymaliśmy masakrę, czyli odpowiedź na pytanie kiedy pani dotrzyma słowa (Y), której w języku potocznym żaden człowiek nie rozumie (z matematykiem włącznie).

Wniosek z naszego przykładu to prawo Pandy.

Prawo Pandy:
Jedyną funkcją logiczną zrozumiałą dla każdego człowieka jest funkcja alternatywno-koniunkcyjna

Definicja funkcji alternatywno-koniunkcyjnej:
Funkcja logiczna Y jest w postaci alternatywno-koniunkcyjnej wtedy i tylko wtedy gdy nie zawiera ani jednego członu w postaci koniunkcyjno-alternatywnej.
Inaczej funkcja Y jest w postaci koniunkcyjno-alternatywnej lub mieszanej.

Wniosek:
Wszelkie człony koniunkcyjno-alternatywne w funkcji logicznej Y musimy logicznie wymnożyć przechodząc do postaci alternatywno-koniunkcyjnej, bo tylko taka postać jest zrozumiała dla człowieka.

1.12 Definicja spójnika „lub”(+)

Definicja spójnika „lub”(+):
Definicja spójnika „lub"(+) to odpowiedź na pytanie kiedy zajdzie Y?
Y=p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1

1.12.1 Definicja operatora „lub”(+)

Definicja operatora „lub"(|+):
Operator „lub”(|+) to złożenie funkcji logicznej
1: Y=p+q w logice dodatniej (bo Y)
oraz funkcji logicznej
2: ~Y=~p*~q w logice ujemnej (bo ~Y)
dające odpowiedź na pytania o Y i ~Y

Kiedy zajdzie Y?
1.
Y=p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1
Innymi słowy:
Wystarczy, że zajdzie którekolwiek zdarzenie p lub q i już funkcja logiczna Y przybierze wartość logiczną 1, czyli:
Y = p*q + p*~q + ~p*q

#

.. a kiedy zajdzie ~Y?
Negujemy równanie 1 stronami:
2: ~Y=~(p+q)=~p*~q - prawo De Morgana
Stąd mamy:
2.
~Y=~p*~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1
Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

1.12.2 Diagram operatora „lub"(|+) w zdarzeniach niepustych i rozłącznych
Kod:

DL
Diagram operatora „lub"(|+) A1: Y|=p+q w zdarzeniach
--------------------------------------------------------------------------
| D=p*q+p*~q+~p*q+~p*~q=1 - dziedzina, suma logiczna zdarzeń rozłącznych |
--------------------------------------------------------------------------
| p                               |
------------------------------------------------------
                  | q                                |
--------------------------------------------------------------------------
| B: Yb=p*~q      | A: Ya=p*q     | C: Yc=~p*q       | D:~Yd=~p*~q       |
--------------------------------------------------------------------------

Kiedy zajdzie Y?
1.
Y = p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1
Innymi słowy:
Wystarczy że zajdzie cokolwiek (p=1) lub (q=1) i już funkcja logiczna Y przyjmie wartość logiczną (Y=1).
Z diagramu odczytujemy:
Y=Ya+Yb+Yc
Po rozwinięciu mamy:
1": Y = A: p*q + B: p*~q + C: ~p*q
Matematycznie zachodzi tożsamość logiczna [=]:
1. Y = p+q [=] 1”: Y = A: p*q + B: p*~q + C: ~p*q
Doskonale to widać z diagramu DL.

Można to też udowodnić w sposób czysto matematyczny:
1. Y = p+q [=] 1”: Y = A: p*q + B: p*~q + C: ~p*q
Minimalizujemy prawą stronę:
Y = p*q + p*~q + ~p*q
Y = p*(q+~q) + ~p*q
Prawa algebry Boole’a:
q+~q=1
p*1=p
Y = p+(~p*q)
Przejście do logiki ujemnej (bo ~Y) poprzez negacją zmiennych i wymianę spójników:
~Y = ~p*(p+~q)
~Y = ~p*p + ~p*~q
Prawa algebry Boole’a:
wymnożenie wielomianu logicznego
~p*p=0
0+x=x
~Y=~p*~q
Powrót do logiki dodatniej (bo Y) poprzez negację zmiennych i wymianę spójników:
1: Y=p+q
stąd mamy:
1. Y = p+q [=] 1”: Y = A: p*q + B: p*~q + C: ~p*q
cnd


#

… a kiedy zajdzie ~Y?
Negujemy dwustronnie równanie 1.
~Y = ~(p+q) = ~p*~q - prawo De Morgana
Stąd mamy:
2.
~Y=~p*~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1

Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

1.12.3 Definicja spójnika „lub”(+) w zdarzeniach rozłącznych

Do zapamiętania:
Definicja spójnika “lub”(+) w zdarzeniach rozłącznych (patrz wyżej):
p+q = p*q + p*~q + ~p*q

1.12.4 Przykład operatora „lub"(|+) w zdarzeniach niepustych i rozłącznych

Definicja operatora „lub”(|+):
Operator „lub”(|+) to złożenie funkcji logicznej
1: Y=p+q w logice dodatniej (bo Y)
oraz funkcji logicznej
2: ~Y=~p*~q w logice ujemnej (bo ~Y)
dające odpowiedź na pytania o Y i ~Y

Pani przedszkolanka:
1.
Jutro pójdziemy do kina (K=1) lub do teatru (T=1)
Y=K+T
co w logice jedynek oznacza:
Y=1 <=> K=1 lub T=1
Czytamy:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1) lub do teatru (T=1)
Innymi słowy:
Prawdą jest (=1), że pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1) lub do teatru (T=1)

Definicja spójnika „lub”(+) w zdarzeniach rozłącznych:
p+q = p*q + p*~q + ~p*q
Podstawiając nasze zdanie 1 mamy:
p=K (kino)
q=T (teatr)
1”: Y = K+T + A: K*T + B: K*~T + C: ~K*T
co w logice jedynek (bo funkcja alternatywno-koniunkcyjna) oznacza:
1”: Y=1 <=> A: K=1 i T=1 lub B: K=1 i ~T=1 lub C: ~K=1 i T=1
Czytamy:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy:
A: Ya = K*T=1*1=1 - jutro pójdziemy do kina (K=1) i pójdziemy do teatru (T=1)
lub
B: Yb = K*~T =1*1 =1 - jutro pójdziemy do kina (K=1) i nie pójdziemy do teatru (~T=1)
lub
C: Yc = ~K*T =1*1 =1 - jutro nie pójdziemy do kina (~K=1) i pójdziemy do teatru (T=1)

Stąd mamy:
Y = Yb+Yc+Yd – funkcja logiczna Y jest sumą logiczną funkcji cząstkowych Ya, Yb, Yc

#
… a kiedy pani nie dotrzyma słowa (~Y=1) = pani skłamie (S=~Y)?
Negujemy równanie 1 dwustronnie:
2: ~Y=~(K+T) = ~K*~T - prawo De Morgana
Stąd mamy:
2.
~Y=~K*~T
co w logice jedynek oznacza:
~Y=1 <=> ~K=1 i ~T=1
Czytamy:
Pani nie dotrzyma słowa (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1) i nie pójdziemy do teatru (~T=1)
Innymi słowy:
Prawdą jest (=1), że pani nie dotrzyma słowa (~Y) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1) i nie pójdziemy do teatru (~T=1)

Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony
Kod:

DL
Diagram operatora "lub"(|+) A1: Y|=K+T w zdarzeniach
--------------------------------------------------------------------------
| D=K*T+K*~T+~K*T+~K*~T=1 - dziedzina, suma logiczna zdarzeń możliwych   |
--------------------------------------------------------------------------
| p=[K]                           |
------------------------------------------------------
                  | q=[T]                            |
--------------------------------------------------------------------------
| B: Yb=p*~q= K*~T| A: Ya=p*q=K*T | C: Yc=~p*q=~K*T  | D:~Yd=~p*~q=~K*~T |
--------------------------------------------------------------------------

Zauważmy, że wszystkie możliwe zdarzenia ABCD są rozłączne i niepuste oraz uzupełniają się wzajemnie do dziedziny.

Dziedziną dla naszego przykładu jest zbiór wszystkich możliwych zdarzań niepustych i rozłącznych które jutro mogą wystąpić:
D = |Ya|+|Yb|+|Yc|+|Yd|
Gdzie:
|Yx| - funkcja logiczna Yx z pominięciem przeczenia
Stąd mamy:
Y = A: p*q + B: p*~q + C: ~p*q + D: ~p*~q
Minimalizujemy:
Y = p*(q+~q) + ~p*(q+~q)
Y = p+~p =1
Dziedzina jest poprawna.
cnd

W dniu jutrzejszym ma szansę wystąpić wyłącznie jedno z powyższych zdarzeń niepustych i rozłącznych.
Dla naszego przykładu mamy:
1.
Kiedy jutro pani dotrzyma słowa (Y) = pani nie skłamie (Y=~S)?
Y=Ya+Yb+Yc
Zdarzenia cząstkowe to:
Ya = K*T =1*1=1
Możliwe jest (=1) zdarzenie: jutro pójdziemy do kina (K=1) i do teatru (T=1)
Pani dotrzyma słowa (Ya=1)
lub
B:
Yb = K*~T=1*1=1
Możliwe jest (=1) zdarzenie: jutro pójdziemy do kina (K=1) i nie pójdziemy do teatru (~T=1)
Pani dotrzyma słowa (Yb=1)
lub
C:
Yc = ~K*T =1*1=1
Możliwe jest (=1) zdarzenie: jutro nie pójdziemy do kina (~K=1) i pójdziemy do teatru (T=1)
Pani dotrzyma słowa (Yc=1)

… a kiedy pani nie dotrzyma słowa (~Y=1)?
2.
Pani nie dotrzyma słowa (~Y=1) tylko w jednym przypadku:
D:
~Yd = ~K*~T =1*1=1
Możliwe jest (=1) zdarzenie: jutro nie pójdziemy do kina (~K=1) i nie pójdziemy do teatru (~T=1)
Pani nie dotrzyma słowa (~Yd=1)

Doskonale widać, że zdarzenia A, B, C i D są niepuste i rozłączne tzn. żadne z tych zdarzeń nie może zajść jednocześnie z innym zdarzeniem.

1.13 Definicja spójnika „i”(*)

Definicja spójnika „i”(*):
Definicja spójnika „i”(*) to odpowiedź na pytanie kiedy zajdzie Y?
Y=p*q
co w logice jedynek oznacza:
Y=1 <=> p=1 i q=1

1.13.1 Definicja operatora „i”(|*)

Definicja operatora „i”(|*):
Operator „i”(|*) to złożenie funkcji logicznej
1: Y=p*q w logice dodatniej (bo Y)
oraz funkcji logicznej 2: ~Y=~p+~q w logice ujemnej (bo ~Y)
dające odpowiedź na pytanie o Y i ~Y

Kiedy zajdzie Y?
1.
Y=p*q
co w logice jedynek oznacza:
Y=1 <=> p=1 i q=1
#
.. a kiedy zajdzie ~Y?
Negujemy równanie 1 stronami:
2: ~Y=~(p*q)=~p+~q - prawo De Morgana
Stąd mamy:
2.
~Y=~p+~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 lub ~q=1
Innymi słowy:
Pozostałe przypadki niepuste i rozłączne, poza funkcją logiczną Y=p*q muszą być zapisane w logice ujemnej (bo ~Y).

Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

1.13.2 Diagram operatora „i”(|*) w zdarzeniach niepustych i rozłącznych

Stąd mamy:
Kod:

DI
Diagram operatora „i”(|*) A1: Y|=p*q w zdarzeniach
--------------------------------------------------------------------------
| D=p*q+p*~q+~p*q+~p*~q=1 - dziedzina, suma logiczna zdarzeń rozłącznych |
--------------------------------------------------------------------------
| p                               |
------------------------------------------------------
                  | q                                |
--------------------------------------------------------------------------
| B:~Yb=p*~q      | A: Ya=p*q     | C:~Yc=~p*q       | D:~Yd=~p*~q       |
--------------------------------------------------------------------------

Kiedy zajdzie Y?
1.
Y = p*q
co w logice jedynek oznacza:
Y=1 <=> p=1 i q=1
bo w równaniach alternatywno-koniunkcyjnych jedynki są domyślne.

#

… a kiedy zajdzie ~Y?
Negujemy dwustronnie równanie 1.
~Y = ~(p*q) = ~p+~q - prawo De Morgana
Stąd mamy:
2.
~Y=~p+~q
Innymi słowy:
Wystarczy że zajdzie cokolwiek (~p=1) lub (~q=1) i już funkcja logiczna ~Y przyjmie wartość logiczną (~Y=1).
Z diagramu DI odczytujemy:
~Y=~Yb+~Yc+~Yd
Po rozwinięciu mamy:
2": ~Y = B: p*~q + C: ~p*q + D: ~p*~q
Matematycznie zachodzi tożsamość logiczna [=]:
2: ~Y = ~p+~q [=] 2": ~Y = B: p*~q + C: ~p*q + D: ~p*~q
Doskonale to widać z diagramu DI.

Można to też udowodnić w sposób czysto matematyczny:
2": ~Y = B: p*~q + C: ~p*q + D: ~p*~q
Minimalizujemy prawą stronę:
~Y = p*~q + ~p*(q+~q)
~Y = ~p+(p*~q)
Przejście do logiki dodatniej (bo Y) poprzez negacją zmiennych i wymianę spójników:
Y = p*(~p+q)
Y = p*~p + p*q
Y = p*q
Powrót do logiki ujemnej (bo ~Y) poprzez negację zmiennych i wymianę spójników:
2: ~Y = ~p+~q
stąd mamy:
2: ~Y = ~p+~q [=] 2": ~Y = B: p*~q + C: ~p*q + D: ~p*~q
cnd

Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

1.13.3 Przykład operatora „i”(|*) w zdarzeniach

Definicja operatora „i”(|*):
Operator „i”(|*) to złożenie funkcji logicznej
1: Y=p*q w logice dodatniej (bo Y)
oraz funkcji logicznej
2: ~Y=~p+~q w logice ujemnej (bo ~Y)
dające odpowiedź na pytanie o Y i ~Y

Pani przedszkolanka:
1.
Jutro pójdziemy do kina (K=1) i do teatru (T=1)
Y=K*T
co w logice jedynek oznacza:
Y=1 <=> K=1 i T=1
Czytamy:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1) i do teatru (T=1)
Innymi słowy:
Prawdą jest (=1), że pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1) i do teatru (T=1)

#
… a kiedy pani nie dotrzyma słowa (~Y=1) = pani skłamie (S=~Y)?
Negujemy równanie 1 dwustronnie:
BCD:
2: ~Y=~(K*T) = ~K+~T - prawo De Morgana
Stąd mamy:
2.
~Y=~K+~T
co w logice jedynek oznacza:
~Y=1 <=> ~K=1 lub ~T=1
Czytamy:
BCD:
Pani nie dotrzyma słowa (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1) lub nie pójdziemy do teatru (~T=1)
Innymi słowy:
Prawdą jest (=1), że pani nie dotrzyma słowa (~Y) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1) lub nie pójdziemy do teatru (~T=1)

Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Matematycznie oznacza to, że jutro nie pójdziemy w dowolne miejsce i już pani nie dotrzyma słowa (~Y=1), czyli:
~Y=B: K*~T + C: ~K*T + D:~K*~T
co w logice jedynek oznacza:
~Y=1 <=> B: K=1 i ~T=1 lub C: ~K=1 i T=1 lub D: ~K=1 i ~T=1
bo w równaniu alternatywno-koniunkcyjnym wszystkie zmienne sprowadzone są do jedynek.
Czytamy:
Pani nie dotrzyma słowa (~Y=1) wtedy i tylko wtedy gdy:
B: ~Yb = K*~T=1*1=1 - jutro pójdziemy do kina (K=1) i nie pójdziemy do teatru (~T=1)
lub
C: ~Yc = ~K*T =1*1 =1 - jutro nie pójdziemy do kina (~K=1) i pójdziemy do teatru (T=1)
lub
D: ~Yd = ~K*~T =1*1 =1 - jutro nie pójdziemy do kina (~K=1) i nie pójdziemy do teatru (~T=1)
Kod:

D1
Diagram operatora „i”(|*) A1: Y|=K*T w zdarzeniach
--------------------------------------------------------------------------
| D=K*T+K*~T+~K*T+~K*~T=1 - dziedzina, suma logiczna zdarzeń możliwych   |
--------------------------------------------------------------------------
| p=[K]                           |
------------------------------------------------------
                  | q=[T]                            |
--------------------------------------------------------------------------
| B:~Yb=p*~q= K*~T| A: Ya=p*q=K*T | C:~Yc=~p*q=~K*T  | D:~Yd=~p*~q=~K*~T |
--------------------------------------------------------------------------


1.14 Opis tabeli zero-jedynkowej równaniami algebry Boole’a

Algebra Boole’a akceptuje wyłącznie pięć znaczków: {0, 1, „nie”(~), „i”(*), „lub”(+)}

Definicja standardu dodatniego w języku potocznym człowieka:
W języku potocznym ze standardem dodatnim mamy do czynienia wtedy i tylko wtedy gdy wszelkie przeczenia w zdaniach są uwidocznione w kodowaniu matematycznym tych zdań.

Logiką matematyczną zrozumiałą dla każdego człowieka (od 5-cio latka poczynając) są wyłącznie równania alternatywno-koniunkcyjne w których wszystkie zmienne sprowadzone są do jedynek na mocy prawa Prosiaczka.

Weźmy zero-jedynkową definicję równoważności p<=>q:
Kod:

T1
          Y=
   p   q p<=>q
A: 1<=>1  =1
B: 1<=>0  =0
C: 0<=>0  =1
D: 0<=>1  =0


Definicja pełnej tabeli zero-jedynkowej:
Pełna tabela zero-jedynkowa układu logicznego (bramka logiczna) to zero-jedynkowy zapis wszystkich sygnałów wejściowych w postaci niezanegowanej (p, q, r..) i zanegowanej (~p, ~q, ~r..) oraz zapis wyjścia Y również w postaci niezanegowanej (Y) i zanegowanej (~Y).

Algorytm przejścia z dowolnej tabeli zero-jedynkowej do jej opisu w spójnikach „i”(*) i „lub”(+):

1.
Tworzymy pełną definicję tabeli zero-jedynkowej, czyli:

Zapisujemy wszelkie zmienne po stronie wejścia p i q w postaci niezanegowanej i zanegowanej.
Do wyjścia Y również dopisujemy postać zanegowaną ~Y
W powstałej tabeli tworzymy równania cząstkowe dla wszystkich linii.

2.
SD - standard dodatni języka potocznego = logika jedynek

W logice jedynek opisujemy wyłącznie jedynki gdzie w poziomie używamy spójnika „i”(*) zaś w pionie spójnika „lub”(+)
Logika jedynek prowadzi do równań alternatywno-koniunkcyjnych zgodnych z naturalną logika matematyczną człowieka, co oznacza, że będą one rozumiane w języku potocznym przez wszystkich ludzi, od 5-cio latka poczynając.

3.
SU - standard ujemny (niezrozumiały dla człowieka) = logika zer

W logice zer opisujemy wyłącznie zera gdzie w poziomie używamy spójnika „lub”(+) zaś w pionie spójnika „i”(*)
Logika zer prowadzi do równań koniunkcyjno-alternatywnych totalnie niezrozumiałych w języku potocznym. Z tego względu zawsze wymnażamy wielomian koniunkcyjno-alternatywny przechodząc do tożsamej postaci alternatywno-koniunkcyjnej.

1.14.1 Opis tabeli zero-jedynkowej w logice jedynek

Dla wyjaśnienia zagadnienia posłużymy się zero-jedynkową tabelą równoważności p<=>q:
Kod:

T1
          Y=
   p   q p<=>q
A: 1<=>1  =1
B: 1<=>0  =0
C: 0<=>0  =1
D: 0<=>1  =0

SD - standard dodatni języka potocznego = logika jedynek:
W logice jedynek opisujemy wyłącznie jedynki gdzie w poziomie używamy spójnika „i”(*) zaś w pionie spójnika „lub”(+)
Logika jedynek prowadzi do równań alternatywno-koniunkcyjnych zgodnych z naturalną logika matematyczną człowieka, co oznacza, że będą one rozumiane w języku potocznym przez wszystkich ludzi, od 5-cio latka poczynając.

Zastosujmy logikę jedynek do tabeli zero-jedynkowej równoważności Y = p<=>q:
Kod:

T2
Pełna definicja     |Co w logice jedynek |Równania
zero-jedynkowa Y    |oznacza             |cząstkowe
                    |                    |
   p  q ~p ~q  Y ~Y |                    |
A: 1  1  0  0 =1 =0 | Ya=1<=> p=1 i  q=1 | Ya= p* q
B: 1  0  0  1 =0 =1 |~Yb=1<=> p=1 i ~q=1 |~Yb= p*~q
C: 0  0  1  1 =1 =0 | Yc=1<=>~p=1 i ~q=1 | Yc=~p*~q
D: 0  1  1  0 =0 =1 |~Yd=1<=>~p=1 i  q=1 |~Yd=~p* q
   1  2  3  4  5  6   a       b      c     d   e  f


Kiedy zajdzie Y?
Z tabeli równań cząstkowych def odczytujemy:
1: Y = Ya+Yc
Po rozwinięciu mamy sumę logiczną zdarzeń rozłącznych:
1: Y = A: p*q + C: ~p*~q
T2_1:
Y= p*q + ~p*~q
co w logice jedynek oznacza:
Y=1 <=> A: p=1 i q=1 lub C: ~p=1 i ~q=1
#
Kiedy zajdzie ~Y?
Z tabeli równań cząstkowych def otrzymujemy:
2: ~Y=~Yb+~Yd
Po rozwinięciu mamy sumę logiczną zdarzeń rozłącznych:
2: ~Y = B: p*~q + D: ~p*q
T2_2:
~Y = p*~q + ~p*q
co w logice jedynek oznacza:
~Y=1 <=> B: p=1 i ~q=1 lub D: ~p=1 i q=1
Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Zauważmy, że możliwe jest szybsze wygenerowania równań algebry Boole’a w logice jedynek z pominięciem bloku abc.
Kod:

T2
Pełna definicja     |Równania cząstkowe
zero-jedynkowa Y    |w logice jedynek
                    |
   p  q ~p ~q  Y ~Y |
A: 1  1  0  0 =1 =0 | Ya= p* q
B: 1  0  0  1 =0 =1 |~Yb= p*~q
C: 0  0  1  1 =1 =0 | Yc=~p*~q
D: 0  1  1  0 =0 =1 |~Yd=~p* q
   1  2  3  4  5  6   d   e  f


Definicja logiki 5-cio latka:
Logika 5-cio latka w definicji operatora logicznego Y|=f(x) wyrażonego spójnikami „i”(*) i „lub”(+) to logika jedynek gdzie finalnie otrzymujemy odpowiedzi na pytania o Y i ~Y w funkcjach alternatywno-koniunkcyjnych, doskonale rozumianych przez każdego 5-cio latka (pkt. 1.10)


1.14.2 Opis tabeli zero-jedynkowej w logice zer

Dla wyjaśnienia zagadnienia posłużymy się zero-jedynkową tabelą równoważności p<=>q:
Kod:

T1
          Y=
   p   q p<=>q
A: 1<=>1  =1
B: 1<=>0  =0
C: 0<=>0  =1
D: 0<=>1  =0

SU - standard ujemny (niezrozumiały dla człowieka) = logika zer.
W logice zer opisujemy wyłącznie zera gdzie w poziomie używamy spójnika „lub”(+) zaś w pionie spójnika „i”(*)
Logika zer prowadzi do równań koniunkcyjno-alternatywnych totalnie niezrozumiałych w języku potocznym.

Zastosujmy logikę zer do tej samej tabeli zero-jedynkowej równoważności Y = p<=>q:
Kod:

T3
Pełna definicja     |Co w logice zer       |Równania
zero-jedynkowa Y    |oznacza               |cząstkowe
                    |                      |
   p  q ~p ~q  Y ~Y |                      |
A: 1  1  0  0 =1 =0 |~Ya=0<=>~p=0 lub ~q=0 |~Ya=~p+~q
B: 1  0  0  1 =0 =1 | Yb=0<=>~p=0 lub  q=0 | Yb=~p+ q
C: 0  0  1  1 =1 =0 |~Yc=0<=> p=0 lub  q=0 |~Yc= p+ q
D: 0  1  1  0 =0 =1 | Yd=0<=> p=0 lub ~q=0 | Yd= p+~q
   1  2  3  4  5  6   a       b        c     d   e  f


Kiedy zajdzie Y?
Z tabeli równań cząstkowych def odczytujemy:
3: Y = Yb*Yd - spójnik „i”(*) bo opis tabeli zero-jedynkowej w logice ujemnej
Po rozwinięciu mamy:
3. Y = (B: ~p+q)*(D: p+~q)
T3_3:
Y = (~p+q)*(p+~q)
co w logice zer oznacza:
Y=0 <=> (B: ~p=0 lub q=0)*(D: p=0 lub ~q=0)
#
Kiedy zajdzie ~Y?
Z tabeli równań cząstkowych def odczytujemy:
4: ~Y = ~Ya*~Yc - spójnik „i”(*) bo opis tabeli zero-jedynkowej w logice ujemnej
Po rozwinięciu mamy:
4: ~Y = (A: ~p+~q)*(C: p+q)
T3_4:
~Y = (~p+~q)*(p+q)
co w logice zer oznacza:
~Y=0 <=> (A: ~p=0 lub ~q=0)*(C: p=0 lub q=0)
Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Zauważmy, że możliwe jest szybsze wygenerowania równań algebry Boole’a w logice zer z pominięciem bloku abc.
Kod:

T3
Pełna definicja     |Równania cząstkowe
zero-jedynkowa Y    |w logice zer
                    |
   p  q ~p ~q  Y ~Y |
A: 1  1  0  0 =1 =0 |~Ya=~p+~q
B: 1  0  0  1 =0 =1 | Yb=~p+ q
C: 0  0  1  1 =1 =0 |~Yc= p+ q
D: 0  1  1  0 =0 =1 | Yd= p+~q
   1  2  3  4  5  6   d   e  f


Definicja logiki Diabła:
Logika Diabła w definicji operatora logicznego Y|=f(x) wyrażonego spójnikami „i”(*) i „lub”(+) to logika zer gdzie finalnie otrzymujemy odpowiedzi na pytania o Y i ~Y w funkcjach koniunkcyjno-alternatywnych, totalnie niezrozumiałych przez człowieka (pkt. 1.10)

Z tego względu w języku potocznym zawsze wymnażamy wielomian koniunkcyjno-alternatywny przechodząc do tożsamej postaci alternatywno-koniunkcyjnej.

1.15 Związek opisu tabel zero-jedynkowych w logice jedynek i w logice zer

Zapiszmy symbolicznie tabelę T2 i T3 jedna pod drugą:

Tabela T2
Logika jedynek = logika 5-cio latka:
T2_1: Y= p*q + ~p*~q - funkcja alternatywno-koniunkcyjna (alternatywa koniunkcji)
#
T2_2: ~Y = p*~q + ~p*q - funkcja alternatywno-koniunkcyjna (alternatywa koniunkcji)

Tabela T3
Logika zer = logika Diabła:
T3_3: Y = (~p+q)*(p+~q) - funkcja koniunkcyjno-alternatywna (koniunkcja alternatyw)
#
T3_4: ~Y = (~p+~q)*(p+q) - funkcja koniunkcyjno-alternatywna (koniunkcja alternatyw)

Uzasadnienie nazwy „logika 5-cio latka” i „logika Diabła” znajdziemy w punkcie 1.10 gdzie mamy dowód na przykładzie iż w języku potocznym:
1.
Funkcje alternatywno-koniunkcyjne są doskonale rozumiane przez każdego człowieka od 5-cio latka poczynając
2.
Funkcji koniunkcyjno-alternatywnych żaden człowiek nie rozumie od 5-cio latka poczynając na matematyku kończąc.

1.15.1 Prawo Małpki

Prawo Małpki:
Każda funkcja alternatywno-koniunkcyjna ma swój tożsamy odpowiednik w postaci funkcji koniunkcyjno-alternatywnej (i odwrotnie)

Rozszerzoną teorię w zakresie prawa Małpki znajdziemy w punkcie:
25.0 Algorytm Małpki – wielkie wydarzenie w historii logiki matematycznej

Dowód:
Funkcje Y i ~Y w tabelach T2 i T3 dotyczą tej samej tabeli zero-jedynkowej, stąd zachodzą tożsamości logiczne:
Kod:

T2_1: Y= p* q+ ~p*~q = T3_3: Y=(~p+ q)*( p+~q)
      #                      #
T2_2:~Y= p*~q+ ~p* q = T3_4:~Y=(~p+~q)*( p+ q)

Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Otrzymane funkcje logiczne Y i ~Y nie są tożsame:
(Y=~Y) =0
ale związane ze sobą spójnikiem "albo"($)

Definicja spójnika "albo"($) w spójnikach "i"(*) i "lub"(+):
p$q = p*~q + ~p*q – poznamy niebawem (pkt. 7.0)
Podstawmy:
p=Y
q=~Y
Y$~Y = (Y)*~(~Y) + ~(Y)*(~Y) = Y*Y + ~Y*~Y = Y+~Y=1

Przykład:
Dowolny człowiek mówi prawdę (P) albo nie mówi prawdy (~P)
P$~P =1
Trzeciej możliwości brak

Definicja tożsamości logicznej <=>:
Prawdziwość dowolnej strony tożsamości logicznej <=> wymusza prawdziwość drugiej strony
Fałszywość dowolnej strony tożsamości logicznej <=> wymusza fałszywość drugiej strony

W algebrze Kubusia zachodzą tożsamości znaczków:
<=>, „=”, [=] - tożsame znaczki tożsamości logicznej

Wisienka na torcie:
Dowód braku tożsamości:
(Y=~Y) =0

Prawo Irbisa dla zbiorów/zdarzeń (pkt. 2.9):
Dowolna równoważność prawdziwa p<=>q definiuje tożsamość zbiorów/zdarzeń p=q i odwrotnie.
Stąd mamy:
p=q <=> A1B3: (p<=>q) = (A1: p=>q)*(B3: q=>p) =1*1=1

Definicja równoważności p<=>q w spójnikach "i"(*) i "lub"(+):
Y = p<=>q = p*q + ~p*~q
Podstawmy:
p=Y, q=~Y
stąd mamy:
Y = (Y<=>~Y) = (Y)*(~Y) + ~(Y)* ~(~Y) = = Y*~Y + ~Y*Y = 0+0 =0
Stąd:
Na mocy prawa Irbisa nie zachodzi (=0) tożsamość:
(Y=~Y) =0

1.15.2 Definicja funkcji alternatywno-koniunkcyjnej

Definicja funkcji alternatywno-koniunkcyjnej:
Funkcja logiczna Y ma postać alternatywno-koniunkcyjną wtedy i tylko wtedy gdy nie zawiera ani jednego członu w postaci koniunkcyjno-alternatywnej.
Inaczej funkcja Y ma postać koniunkcyjno-alternatywną lub mieszaną

Logiką zrozumiałą dla człowieka jest wyłącznie postać alternatywno-koniunkcyjna (dowód w pkt. 1.10) gdzie wszystkie zmienne na mocy prawa Prosiaczka sprowadzone są do logicznych jedynek.

Prawo Małpiątka:
Jeśli w dowolnym równaniu algebry Boole'a napotkamy fragment koniunkcyjno-alternatywny to ten fragment wymnażamy logicznie przechodząc do funkcji alternatywno-koniunkcyjnej

1.15.3 Tworzenie tabeli zero-jedynkowej dla funkcji logicznej Y

Zadanie:
Utwórz tabelę zero-jedynkową dla poniższej funkcji alternatywno-koniunkcyjnej:
Y = (p<=>q) = p*q +~p*~q
co w logice jedynek (bo funkcja alternatywno-koniunkcyjna) oznacza:
Y=1 <=> p=1 i q=1 lub ~p=1 i ~q=1

Stąd w punktach A5 i C5 w pełnej tabeli zero-jedynkowej stawiamy jedynki
Kod:

Pełna tabela zero-jedynkowa
   p  q ~p ~q  Y ~Y
A: 1  1  0  0  1
B: 1  0  0  1
C: 0  0  1  1  1
D: 0  1  1  0
   1  2  3  4  5  6

Mamy wszystko, dalsze wypełnianie pełnej tabeli zero-jedynkowej to komputerowy automat na mocy definicji negacji, nic a nic nie trzeba myśleć.
Kod:

T1
   p  q ~p ~q  Y ~Y
A: 1  1  0  0  1  0
B: 1  0  0  1  0  1
C: 0  0  1  1  1  0
D: 0  1  1  0  0  1
   1  2  3  4  5  6


1.16 Funkcje logiczne dwuargumentowe

Definicja funkcji logicznej Y dwóch zmiennych binarnych p i q:
Funkcja logiczna Y=f(p,q) w logice dodatniej (bo Y) dwóch zmiennych binarnych p i q to cyfrowy układ logiczny dający na wyjściu binarnym Y jednoznaczne odpowiedzi na wszystkie możliwe wymuszenia na wejściach p i q.
Zachodzi tożsamość pojęć:
zmienna binarna = zmienna dwuwartościowa

Definicja operatora logicznego dwuargumentowego Y|=f(p,q) w spójnikach "i"(*) i "lub"(+):
Operator logiczny dwuargumentowy Y|=f(p,q) wyrażony spójnikami "i”(*) i "lub"(+) to układ równań logicznych 1 i 2 dający odpowiedź na pytanie o Y i ~Y
1.
Y=f(p,q)
.. a kiedy zajdzie ~Y?
#
Negujemy funkcję logiczną 1 dwustronnie:
2.
~Y=~f(p,q)

Przykład:
1.
Y = p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1
bo w równaniach alternatywno-koniunkcyjnych jedynki są domyślne.
#
2.
… a kiedy zajdzie ~Y?
Negujemy dwustronnie równanie 1:
~Y = ~(p+q) = ~p*~q - na mocy prawa De Morgana.
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1
bo w równaniach alternatywno-koniunkcyjnych jedynki są domyślne.
Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Wszystkie możliwe wymuszenia binarne (dwuwartościowe) na wejściach p i q dla funkcji logicznej w logice dodatniej (bo Y) to:
Kod:

T1
Wszystkie możliwe wymuszenia binarne na wejściach p i q
dla funkcji logicznej w logice dodatniej (bo Y)
   p  q  Y=f(p,q)
A: 1  1  x
B: 1  0  x
C: 0  1  x
D: 0  0  x
Gdzie:
x={0,1}
Y - funkcja logiczna
f(p,q) - wyrażenie algebry Boole’a

Z definicji funkcji logicznej Y wynika, że możliwe jest szesnaście i tylko szesnaście różnych na mocy definicji ## funkcji logicznych dwuargumentowych w logice dodatniej (bo Y).
Funkcje te definiujemy tabelą prawdy pokazującą wszystkie możliwe wspólne wymuszenia na wejściach p i q oraz wszystkie możliwe, różne na mocy definicji ## odpowiedzi na wyjściu Y.

Każda ze zmiennych binarnych {p, q, Y} może występować w logice dodatniej (bo x) albo w logice ujemnej (bo ~x). Oczywistym jest, że zmienna binarna w logice dodatniej (bo x) wymusza zmienną binarną w logice ujemnej (bo ~x), albo odwrotnie.
Na dowolny układ cyfrowy można zatem spojrzeć w logice dodatniej (bo Y) albo w logice ujemnej (bo ~Y).
Kod:

T2
Wymuszenia binarne w logice dodatniej {p, q, Y}
wymuszają logikę ujemną {~p, ~q, ~Y) i odwrotnie.
   p  q  Y=f(p,q)  #  ~p ~q  ~Y=~f(p,q)
A: 1  1  x         #   0  0 ~(x)
B: 1  0  x         #   0  1 ~(x)
C: 0  1  x         #   1  0 ~(x)
D: 0  0  x         #   1  1 ~(x)
Gdzie:
x={0,1}
f(p,q) - wyrażenie algebry Boole’a
Y=f(p,q) # ~Y=~f(p,q)
# - różne, w znaczeniu iż dowolna strona # jest negacją drugiej strony
Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
~q=~(q)
Stąd mamy:
p, q, Y muszą być wszędzie tymi samymi p, q, Y inaczej błąd podstawienia


1.16.1 Tabela wszystkich możliwych funkcji dwuargumentowych

W tabeli wszystkich możliwych dwuargumentowych funkcji logicznych TF2 (niżej) po raz pierwszy w historii ludzkości zdefiniowano wszystkie występujące w logice matematycznej, elementarne znaczki logiczne.
Kod:

TF2
Tabela prawdy wszystkich możliwych dwuargumentowych funkcji logicznych Y
w logice dodatniej (bo Y)
        |Grupa I        |Grupa II       |Grupa III             | Grupa IV
        |Spójniki „i”(*)|Spójniki =>, ~>|Spójniki <=>, $       | Wejścia
        |oraz „lub”(+)  ||=>, |~>       ||~~>, |~~~>           | p i q
        | Y  Y |  Y  Y  | Y  Y   Y   Y  |  Y    Y   Y      Y   | Y  Y  Y  Y
   p  q | *  + | ~* ~+  | => ~> |=> |~> | <=>   $  |~~>   |~~~>| p  q ~p ~q
A: 1  1 | 1  1 |  0  0  | 1  1   0   0  |  1    0   1      0   | 1  1  0  0
B: 1  0 | 0  1 |  1  0  | 0  1   0   1  |  0    1   1      0   | 1  0  0  1
C: 0  1 | 0  1 |  1  0  | 1  0   1   0  |  0    1   1      0   | 0  1  1  0
D: 0  0 | 0  0 |  1  1  | 1  1   0   0  |  1    0   1      0   | 0  0  1  1
          A  A    A  A    A  A   A   A     A    A   A      A     A  A  A  A
          0  1    2  3    4  5   6   7     8    9  10     11    12 13 14 15

Definicja znaczka różne na mocy definicji ## w logice dodatniej (bo Y):
Dwie funkcje logiczne Y w logice dodatniej (bo Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy dla identycznych wymuszeń na wejściach p i q:
p - w logice dodatniej (bo p)
oraz
q - w logice dodatniej (bo q)
mają różne kolumny wynikowe Y w logice dodatniej (bo Y).
Doskonale widać, że wszystkie funkcje Y w tabeli TF2 spełniają definicję znaczka różne na mocy definicji ## w logice dodatniej (bo Y)

Poprawność powyższej definicji łatwo sprawdzić w laboratorium bramek logicznych:
1.
Budujemy 16 różnych na mocy definicji ## bramek logicznych definiowanych tabelą TF0-15
2.
Wybieramy dowolne dwie różne bramki łącząc galwanicznie ich wyjścia Y.
Na wspólnych wejściach p i q wybranych bramek wymuszamy wszystkie możliwe kombinacje zero-jedynkowe ABCDpq.
3.
Pewne jest, że w laboratorium zobaczymy kupę dymu i smrodu co jest dowodem różności na mocy definicji ## wybranych bramek.

Prawo negacji funkcji logicznej:
Dowolną funkcję logiczną mamy prawo dwustronnie zanegować przechodząc do logiki przeciwnej.

Definicja operatora logicznego Y|=f(x) w spójnikach "i"(*) i "lub"(+):
Operator logiczny Y|=f(x) to układ równań logicznych dający odpowiedź na pytanie o Y i ~Y.

Zastosujmy prawo negacji funkcji logicznej do tabeli TF2
Kod:

TF0-15
-------------------------------------------------------------------
TF0-3
Grupa spójników „i”(*) oraz „lub”(+) w logice dodatniej (bo Y)
oraz w logice ujemnej (bo ~Y)
A0:  Y=p*q  "i"(*) w j. potocznym   # B0:  ~Y=~( p* q) =~p+~q
     ##                                     ##
A1:  Y=p+q  "lub"(+) w j. potocznym # B1:  ~Y=~( p+ q) =~p*~q
     ##                                     ##
A2:  Y=~(p*q)=~p+~q NAND w technice # B2:  ~Y=~(~p+~q) = p* q
     ##                                     ##
A3:  Y=~(p+q)=~p*~q NOR w technice  # B3:  ~Y=~(~p*~q) = p+ q
     ##
--------------------------------------------------------------------
TF4-5
Grupa warunków wystarczających p=>q i koniecznych p~>q:
Definicja warunku wystarczającego p=>q:
A4:  Y = (p=>q) = ~p+q              # B4:  ~Y=~(p=>q) = p*~q
     ##                                     ##
Definicja warunku koniecznego p~>q:
A5:  Y = (p~>q) = p+~q              # B5:  ~Y=~(p~>q) =~p* q
     ##                                     ##
--------------------------------------------------------------------
TF6-7
Grupa spójników implikacyjnych p|=>q i p|~>q:
Definicja implikacji prostej p|=>q:
A6:  Y = p|=>q  =~p* q              # B6:  ~Y=~(p|=>q)= p+~q
     ##                                     ##
Definicja implikacji odwrotnej p|~>q:
A7:  Y = p|~>q  = p*~q              # B7:  ~Y=~(p|~>q)=~p+ q
     ##                                     ##
--------------------------------------------------------------------
TF8-9
Grupa spójników równoważnościowych p<=>q i p$q
Definicja równoważności p<=>q:
A8:  Y = p<=>q = ~(p$q) =p*q+~p*~q  # B8:  ~Y=~(p<=>q)=(p$q)=p*~q+~p*q
     ##                                     ##
Definicja spójnika „albo”($):
A9:  Y = p$q = ~(p<=>q)=p*~q+~p*q   # B9:  ~Y=~(p$q) =(p<=>q)=p*q+~p*~q
     ##                                     ##
--------------------------------------------------------------------
TF10-11
Grupa spójników chaosu p|~~>q:
Definicja chaosu (zdanie zawsze prawdziwe): Y=p|~~>q=1:
A10: Y=p|~~>q=(p+q+~p*~q)=1         # B10: ~Y=~(p|~~>q)=(p+q)*~(p+q)=0
     ##                                     ##
Definicja śmierci (zdanie zawsze fałszywe): Y=p|~~~>q=0:
A11: Y =p|~~~>q = (p+q)*~(p+q)=0    # B11: ~Y=~(p|~~~>q)=(p+q+~p*~q)=1
     ##
--------------------------------------------------------------------
TF12-15
Grupa spójników jednoargumentowych w logice dodatniej (bo Y)
oraz w logice ujemnej (bo ~Y)
     ##                                    ##
A12: Y = p                          # B12:~Y=~p
     ##                                    ##
A13: Y = q                          # B13:~Y=~q
     ##                                    ##
A14: Y =~p                          # B14:~Y= p
     ##                                    ##
A15: Y =~q                          # B15:~Y= q
Gdzie:
#  - różne w znaczeniu iż dowolna strona # jest negacją drugiej strony
## - różne na mocy definicji funkcji logicznych
Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
~q=~(q)
Stąd mamy:
p, q, Y muszą być wszędzie tymi samymi p, q, Y inaczej błąd podstawienia

Funkcje logiczne Y w logice dodatniej (bo Y) w ilości 16 sztuk (A0-A15) to funkcje różne na mocy definicji ##.

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne (Y,~Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest zaprzeczeniem drugiej.

Doskonale widać, że w tabeli TF0-15 definicje obu znaczków # i ## są perfekcyjnie spełnione.

1.17 Definicja spójników zupełnych w języku potocznym

Definicja spójników zupełnych w języku potocznym:
Spójniki zupełne w języku potocznym (w tym w matematyce i fizyce) to spójniki "i"(*) i "lub"(+) przy pomocy których można zdefiniować każdą z 16 możliwych funkcji logicznych w logice dodatniej (bo Y) oraz w logice ujemnej (bo ~Y) widocznych w tabeli TF0-15.

Jedynymi spójnikami zupełnymi w logice matematycznej zgodnymi z językiem potocznym 5-cio latków są spójniki z algebry Boole'a:
(+) - spójnik "lub"(+) zgodny z językiem potocznym
(*) - spójnik "i"(*) zgodny z językiem potocznym

1.17.1 Prawo Puchacza dla spójników zupełnych w języku potocznym

Prawo Puchacza dla spójników zupełnych w języku potocznym:
Funkcje logiczne Y i ~Y opisujące linię x w tabeli TF0-15 dostępne są tylko i wyłącznie w linii x.
Żadna z tych funkcji nie jest dostępna w jakiejkolwiek linii poza linią x

W tabeli TF0-15 widać, że dowolna linia tej tabeli jest różna na mocy definicji ## od jakiejkolwiek innej linii w tej tabeli.

Definicja operatora logicznego Y|=f(x)w spójnikach "i"(*) i "lub"(+):
Operator logiczny Y|=f(x) to układ równań logicznych dający odpowiedź na pytanie o Y i ~Y.

Rozważmy sztandarowy przykład:

I.
Definicja operatora "lub"(|+) A1B1:


Patrz tabela TF0-15:
A1
Definicja spójnika "lub"(+):
Y = p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1
#
… a kiedy zajdzie ~Y
Negujemy dwustronnie 1:
B1.
~Y=~p*~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1

Gdzie:
# - różne w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Łatwo sprawdzić w tabeli TF0-15, iż przykładowa funkcja logiczna w logice dodatniej (bo Y):
A1.
Definicja spójnika "lub"(+):
Y = p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1
należy tylko i wyłącznie do operatora "lub"(|+) (A1B1) nie należąc do jakiegokolwiek innego operatora zdefiniowanego w tabeli TF0-15.

Łatwo też sprawdzić w tabeli TF0-15, iż przykładowa funkcja logiczna w logice ujemnej (bo ~Y):
B1.
~Y=~p*~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1
należy tylko i wyłącznie do operatora "lub"(|+) (A1B1) nie należąc do jakiegokolwiek innego operatora zdefiniowanego w tabeli TF0-15.

1.17.2 Startowa funkcja logiczna

Definicja startowej funkcji logicznej:
Startowa funkcja logiczna to funkcja opisująca zdanie startowe wypowiedziane przez człowieka, od którego zaczynamy analizę.

Przykład:
Pani przedszkolanka:
1.
Jutro pójdziemy do kina lub do teatru
Y=K+T
co w logice jedynek (naturalna logika człowieka) oznacza:
Y=1 <=> K=1 lub T=1
Czytamy:
Prawdą jest (=1) że pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1) lub pójdziemy do teatru (T=1)
#
.. a kiedy pani nie dotrzyma słowa (~Y=1)?
Negujemy funkcję startową 1 dwustronnie.
~Y=~(K+T) = ~K*~T - prawo De Morgana
stąd mamy:
2.
~Y=~K*~T
co w logice jedynek oznacza:
~Y=1 <=> ~K=1 i ~T=1
Czytamy:
Prawdą jest (=1), że pani nie dotrzyma słowa (~Y) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1) i nie pójdziemy do teatru (~T=1)
Znaczenie zmiennej Y:
Y - pani dotrzyma słowa (Y=1)
~Y - pani nie dotrzyma słowa (~Y=1)

Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale widać, że funkcją startową jest tu funkcja:
1: Y=K+T


Ostatnio zmieniony przez rafal3006 dnia Pon 10:34, 16 Wrz 2024, w całości zmieniany 3 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 34685
Przeczytał: 26 tematów

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Nie 17:19, 15 Wrz 2024    Temat postu:

Kwintesencja algebry Kubusia
Część IV Kompendium algebry Kubusia. Część I

Spis treści
2.0 Kompendium algebry Kubusia 2
2.1 Skorowidz definicji implikacyjnych algebry Kubusia 2
2.2 Elementarne spójniki implikacyjne w zdarzeniach 2
2.2.1 Definicja zdarzenia możliwego ~~> 2
2.2.2 Definicja warunku wystarczającego => w zdarzeniach 3
2.2.3 Definicja warunku koniecznego ~> w zdarzeniach 4
2.2.4 Definicja kontrprzykładu w zdarzeniach 6
2.3 Elementarne spójniki implikacyjne w zbiorach 6
2.3.1 Definicja elementu wspólnego zbiorów ~~> 7
2.3.2 Definicja warunku wystarczającego => w zbiorach 7
2.3.3 Definicja warunku koniecznego ~> w zbiorach 8
2.3.4 Definicja kontrprzykładu w zbiorach 9
2.4 Rachunek zero-jedynkowy warunków wystarczających => i koniecznych ~> 10
2.5 Prawa algebry Kubusia wynikłe z rachunku zero-jedynkowego 13
2.5.1 Definicje znaczków # i ## 15
2.6 Fundamentalne definicje i prawa algebry Kubusia 16
2.6.1 Prawa Sowy 16
2.6.2 Definicja tożsamości logicznej 16
2.6.3 Definicja dowodu "nie wprost" w algebrze Kubusia 17
2.6.4 Prawa Prosiaczka 17
2.7 Prawo Kłapouchego - kluczowe prawo logiki matematycznej 17
2.7.1 Definicja podstawowego spójnika implikacyjnego 17
2.7.2 Prawo Kłapouchego i prawo Kameleona w implikacji prostej p|=>q 18
2.7.3 Prawo Kłapouchego w implikacji odwrotnej p|~>q 20
2.7.4 Nietrywialny błąd podstawienia ### 21
2.8 Prawa Słonia 22
2.8.1 Prawo Słonia dla zbiorów 23
2.8.2 Prawo Słonia dla zdarzeń 25
2.9 Prawo Irbisa 26
2.9.1 Prawo Irbisa dla zbiorów 26
2.9.2 Prawo Irbisa dla zdarzeń 28


2.0 Kompendium algebry Kubusia

Niniejszy punkt to kompendium algebry Kubusia zawierające wszystkie potrzebne definicje i prawa algebry Kubusia konieczne i wystarczające do zrozumienia matematycznej obsługi zdań warunkowych "Jeśli p to q" zarówno na gruncie teorii zdarzeń, jak i na gruncie teorii zbiorów.

2.1 Skorowidz definicji implikacyjnych algebry Kubusia

Definicja podstawowego spójnika implikacyjnego:
Podstawowy spójnik implikacyjny to spójnik związany w obsługą zdań warunkowych "Jeśli p to q" definiowanych warunkami wystarczającymi => i koniecznymi ~>

Definicje spójników implikacyjnych w algebrze Kubusia mają układ trzypoziomowy {1=>2=>3}:
1.
Elementarne spójniki logiczne w zdarzeniach:

~~> - spójnik zdarzenia możliwego (2.2.1)
=> - warunek wystarczający (2.2.2)
~> - warunek konieczny (2.2.3)
Elementarne spójniki logiczne w zbiorach:
~~> - element wspólny zbiorów (2.3.1)
=> - warunek wystarczający tożsamy z relacją podzbioru =>(2.3.2)
~> - warunek konieczny tożsamy z relacją nadzbioru ~>(2.3.3)
2.
Podstawowe spójniki implikacyjne definiowane spójnikami elementarnymi:

|=> - implikacja prosta (2.12)
|~> - implikacja odwrotna (2.13)
<=> - równoważność (2.14)
|~~> - chaos (2.15)
3.
Operatory implikacyjne definiowane podstawowymi spójnikami implikacyjnymi

||=> - operator implikacji prostej (2.12.1)
||~> - operator implikacji odwrotnej (2.13.1)
|<=> - operator równoważności (2.14.1)
||~~> - operator chaosu (2.15.1)

2.2 Elementarne spójniki implikacyjne w zdarzeniach

Cała logika matematyczna w obsłudze zdań warunkowych „Jeśli p to q” stoi na zaledwie trzech elementarnych znaczkach (~~>, =>, ~>) definiujących wzajemne relacje zdarzeń/zbiorów p i q

2.2.1 Definicja zdarzenia możliwego ~~>

Definicja zdarzenia możliwego ~~>:
Jeśli zajdzie p to może ~~> zajść q
p~~>q =p*q =1
Definicja zdarzenia możliwego ~~> jest spełniona (=1) wtedy i tylko wtedy gdy możliwe jest jednoczesne zajście zdarzeń p i q.
Inaczej:
p~~>q=p*q =[] =0

Decydujący w powyższej definicji jest znaczek zdarzenia możliwego ~~>, dlatego dopuszczalny jest zapis skrócony p~~>q.
Uwaga:
Na mocy definicji zdarzenia możliwego ~~> badamy możliwość zajścia jednego zdarzenia, nie analizujemy tu czy między p i q zachodzi warunek wystarczający => czy też konieczny ~>.
Kod:

Zero-jedynkowa definicja zdarzenia możliwego ~~>:
   p  q p~~>q = p*q + p*~q + ~p*~q + ~p*q
A: 1  1  =1
B: 1  0  =1
C: 0  0  =1
D: 0  1  =1
Interpretacja:
p~~>q=p*q=1 - wtedy i tylko wtedy
              gdy możliwe jest jednoczesne ~~> zajście zdarzeń p i q
Inaczej:
p~~>q=p*q=0

Przykład:
Jeśli jutro będzie pochmurno (CH) to może ~~> nie padać (~P)
CH~~>~P=CH*~P =1
Możliwe jest (=1) zdarzenie: są chmury (CH) i nie pada (~P)

2.2.2 Definicja warunku wystarczającego => w zdarzeniach

Definicja warunku wystarczającego => w zdarzeniach:
Jeśli zajdzie p to zajdzie q
p=>q =1
Definicja warunku wystarczającego => jest spełniona (=1) wtedy i tylko wtedy gdy zajście zdarzenia p jest wystarczające => dla zajścia zdarzenia q
Inaczej:
p=>q =0

Definicja warunku wystarczającego => dla potrzeb rachunku zero-jedynkowego:
p=>q = ~p+q

Przykład:
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
P=>CH =1
Padanie jest (=1) warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury

W zapisie formalnym mamy tu:
p=P (pada)
q=CH (chmurka)
Gdzie:
p - przyczyna (część zdania po "Jeśli …")
q - skutek (część zdania po "to…")

Podsumowując:
Kod:

Definicja warunku wystarczającego =>:
Zapis formalny:
A1: p=>q =~p+q
Zapis aktualny (przykład):
A1: p=P
A1: q=CH
A1: P=>CH=~P+CH

Można łatwo udowodnić, iż zdarzenie P (pada) jest podzbiorem => zdarzenia CH (chmury).

Dowód:
Matematycznie zachodzi tożsamość:
Warunek wystarczający => = relacja podzbioru =>
p=>q
1.
Prawo algebry Boole'a:
p=p*1
q=q*1
Stąd mamy:
p*1=>q*1
2.
Korzystamy z definicji wspólnej dziedziny dla p i q:
p+~p=D =1
q+~q=D =1
Stąd mamy wyprowadzone.
Prawo Orła:
p*(q+~q) => q*(p+~p)
3.
Wymnażamy wielomiany logiczne:
p*q + p*~q => p*q + ~p*q
Gdzie:
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Nasz przykład:
p=P(pada)
q=CH(chmury)
Podstawiając do 3 mamy:
4.
P*CH + P*~CH => P*CH + ~P*CH
Badamy możliwość ~~> wystąpienia wszystkich zdarzeń:
P*CH=1 - możliwe jest (=1) zdarzenie: P(pada) i są CH(chmury)
P*~CH=0 - niemożliwe jest (=0) zdarzenie: P(pada) i nie ma chmur (~CH)
~P*CH=1 - możliwe jest (=1) zdarzenie: nie pada (~P) i są chmury (CH)
Stąd:
P*CH => P*CH + ~P*CH
bo x+0=x - prawo algebry Boole'a
Doskonale tu widać, że zdarzenie P*CH jest podzbiorem => zdarzenia (P*CH + ~P*CH)

2.2.3 Definicja warunku koniecznego ~> w zdarzeniach

Definicja warunku koniecznego ~> w zdarzeniach:
Jeśli zajdzie p to zajdzie q
p~>q =1
Definicja warunku koniecznego ~> jest spełniona (=1) wtedy i tylko wtedy gdy zajście zdarzenia p jest konieczne ~> dla zajścia zdarzenia q
Inaczej:
p~>q =0

Definicja warunku koniecznego ~> dla potrzeb rachunku zero-jedynkowego:
p~>q = p+~q

Przykład:
B1.
Jeśli jutro będzie pochmurno (CH) to może ~> padać (P)
CH~>P =1
Chmury (CH) są (=1) konieczne ~> dla padania (P), bo padać może wyłącznie z chmurki.

W zapisie formalnym mamy tu:
p=CH (chmurka)
q=P (pada)
Gdzie:
p - przyczyna (część zdania po "Jeśli …")
q - skutek (część zdania po "to…")

Podsumowując:
Kod:

Definicja warunku koniecznego ~>:
Zapis formalny:
B1: p~>q = p+~q
Zapis aktualny (przykład):
B1: p=CH
B1: q=P
B1: CH~>P=CH+~P

Można łatwo udowodnić, iż zdarzenie CH (chmury) jest nadzbiorem ~> zdarzenia P (pada)

Dowód:
Matematycznie zachodzi tożsamość:
Warunek konieczny ~> = relacja nadzbioru ~>
p~>q
1.
Prawo algebry Boole'a:
p=p*1
q=q*1
Stąd mamy:
p*1~>q*1
2.
Korzystamy z definicji wspólnej dziedziny dla p i q:
p+~p=D =1
q+~q=D =1
stąd mamy wyprowadzone.
Prawo Orła:
p*(q+~q) ~> q*(p+~p)
3.
Wymnażamy wielomiany logiczne:
p*q + p*~q ~> p*q + ~p*q
Gdzie:
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Nasz przykład:
p=CH(chmury)
q=P(pada)
Podstawiając do 3 mamy:
4.
CH*P + CH*~P ~> CH*P + ~CH*P
Badamy możliwość ~~> wystąpienia wszystkich zdarzeń:
CH*P=1 - możliwe jest (=1) zdarzenie: są chmury (CH) i pada (P)
CH*~P=1 - możliwe jest (=1) zdarzenie: są chmury (CH) i nie pada (~P)
~CH*P=0 - niemożliwe jest (=0) zdarzenie: nie ma chmur (~CH) i pada (P)
Stąd mamy:
5.
CH*P + CH*~P ~> CH*P
bo x+0=x
Doskonale tu widać, że zdarzenie (CH*P + CH*~P) jest nadzbiorem ~> zdarzenia CH*P

2.2.4 Definicja kontrprzykładu w zdarzeniach

Definicja kontrprzykładu w zdarzeniach:
Kontrprzykładem dla warunku wystarczającego p=>q nazywamy to samo zdanie z zanegowanym następnikiem kodowane zdarzeniem możliwym p~~>~q=p*~q
Rozstrzygnięcia:
Prawdziwość warunku wystarczającego p=>q=1 wymusza fałszywość kontrprzykładu p~~>~q=p*~q=0 (i odwrotnie)
Fałszywość warunku wystarczającego p=>q=0 wymusza prawdziwość kontrprzykładu p~~>~q=p*~q=1
(i odwrotnie)

Przykład:
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
P=>CH=1
Padanie jest warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury

Na mocy definicji kontrprzykładu prawdziwy warunek wystarczający A1: P=>CH=1 wymusza fałszywość kontrprzykładu A1' (i odwrotnie)
A1'
Jeśli jutro będzie padało (P) to może ~~> nie być pochmurno (~CH)
P~~>~CH = P*~CH=0
Dowód wprost:
Niemożliwe jest (=0) zdarzenie ~~>: pada (P) i nie jest pochmurno (~CH)
Dowód "nie wprost":
Na mocy definicji kontrprzykładu tego faktu nie musimy udowadniać, ale możemy, co wyżej uczyniliśmy.

Uwaga na standard w algebrze Kubusia:
Kontrprzykład dla warunku wystarczającego => A1 oznaczamy A1’

2.3 Elementarne spójniki implikacyjne w zbiorach

Cała logika matematyczna w obsłudze zdań warunkowych „Jeśli p to q” stoi na zaledwie trzech znaczkach (~~>, =>, ~>) definiujących wzajemne relacje zbiorów/zdarzeń p i q.

2.3.1 Definicja elementu wspólnego zbiorów ~~>

Definicja elementu wspólnego ~~> zbiorów:
Jeśli p to q
p~~>q =p*q =1
Definicja elementu wspólnego zbiorów ~~> jest spełniona (=1) wtedy i tylko wtedy gdy zbiory p i q mają co najmniej jeden element wspólny
Inaczej:
p~~>q= p*q= [] =0 - zbiory p i q są rozłączne, nie mają (=0) elementu wspólnego ~~>

Decydujący w powyższej definicji jest znaczek elementu wspólnego zbiorów ~~>, dlatego dopuszczalny jest zapis skrócony p~~>q.
W operacji iloczynu logicznego zbiorów p*q poszukujemy jednego wspólnego elementu co kończy dowód.
Jeśli zbiory p i q mają element wspólny ~~> to z reguły błyskawicznie go znajdujemy:
p~~>q=p*q =1
co na mocy definicji kontrprzykładu (poznamy za chwilkę) wymusza fałszywość warunku wystarczającego =>:
p=>~q =0 (i odwrotnie)

Kod:

Zero-jedynkowa definicja elementu wspólnego zbiorów ~~>:
   p  q p~~>q = p*q + p*~q + ~p*~q + ~p*q
A: 1  1  =1
B: 1  0  =1
C: 0  0  =1
D: 0  1  =1
Interpretacja:
p~~>q=p*q=1 - wtedy i tylko wtedy
              gdy istnieje (=1) element wspólny ~~> zbiorów p i q
Inaczej:
p~~>q=p*q=0

Przykład:
Jeśli dowolna liczba jest podzielna przez 8 to może ~~> być podzielna przez 3
P8~~>P3 = P8*P3 =1
Istnieje (=1) wspólny element zbiorów P8=[8,16,24..] i P3=[3,6,9..24..] np. 24

2.3.2 Definicja warunku wystarczającego => w zbiorach

Definicja podzbioru => w algebrze Kubusia:
Zbiór p jest podzbiorem => zbioru q wtedy i tylko wtedy gdy wszystkie elementy zbioru p należą do zbioru q
p=>q =1 - wtedy i tylko wtedy gdy relacja podzbioru => jest (=1) spełniona
Inaczej:
p=>q =0 - wtedy i tylko wtedy gdy relacja podzbioru => nie jest (=0) spełniona

Definicja warunku wystarczającego => w zbiorach:
Jeśli p to q
p=>q =1
Zajście p jest (=1) wystarczające => dla zajścia q wtedy i tylko wtedy gdy zbiór p jest (=1) podzbiorem => zbioru q
Inaczej:
p=>q =0
Zajście p nie jest (=0) wystarczające => dla zajścia q wtedy i tylko wtedy gdy zbiór p nie jest (=0) podzbiorem => zbioru q

Matematycznie zachodzi tożsamość logiczna:
Warunek wystarczający => = relacja podzbioru =>

Definicja warunku wystarczającego => dla potrzeb rachunku zero-jedynkowego:
p=>q = ~p+q

Przykład:
A1.
Jeśli dowolna liczba jest podzielna przez 8 to na jest podzielna przez 2
P8=>P2 =1
Podzielność dowolnej liczby przez 8 jest warunkiem wystarczającym => dla jej podzielności przez 2 wtedy i tylko wtedy gdy zbiór P8=[8,16,24..] jest podzbiorem => zbioru P2=[2,4,6,8..]
Udowodnić relację podzbioru P8=>P2 potrafi każdy matematyk.

W zapisie formalnym mamy tu:
p=P8=[8,16,24..] - zbiór liczb podzielnych przez 8
q=P2=[2,4,6,8..] - zbiór liczb podzielnych przez 2
Gdzie:
p - przyczyna (część zdania po "Jeśli …")
q - skutek (część zdania po "to…")

Podsumowując:
Kod:

Definicja warunku wystarczającego =>:
Zapis formalny:
A1: p=>q = ~p+q
Zapis aktualny (przykład):
A1: p=P8
A1: q=P2
A1: P8=>P2=~P8+P2


2.3.3 Definicja warunku koniecznego ~> w zbiorach

Definicja nadzbioru ~> w algebrze Kubusia:
Zbiór p jest nadzbiorem ~> zbioru q wtedy i tylko wtedy gdy zbiór p zawiera co najmniej wszystkie elementy zbioru q
p~>q =1 - wtedy i tylko wtedy gdy relacja nadzbioru ~> jest (=1) spełniona
Inaczej:
p~>q =0 - wtedy i tylko wtedy gdy relacja nadzbioru ~> nie jest (=0) spełniona

Definicja warunku koniecznego ~> w zbiorach:
Jeśli p to q
p~>q =1
Zajście p jest (=1) konieczne ~> dla zajścia q wtedy i tylko wtedy gdy zbiór p jest (=1) nadzbiorem ~> zbioru q
Inaczej:
p~>q =0
Zajście p nie jest (=0) konieczne ~> dla zajścia q wtedy i tylko wtedy gdy zbiór p nie jest (=0) nadzbiorem ~> zbioru q

Matematycznie zachodzi tożsamość logiczna:
Warunek konieczny ~> = relacja nadzbioru ~>

Definicja warunku koniecznego ~> dla potrzeb rachunku zero-jedynkowego:
p~>q = p+~q

Przykład:
B1.
Jeśli dowolna liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8 =1
Podzielność dowolnej liczby przez 2 jest warunkiem koniecznym ~> dla jej podzielności przez 8 wtedy i tylko wtedy gdy zbiór P2=[2,4,6,8..] jest nadzbiorem ~> zbioru P8=[8,16,24..]

W zapisie formalnym mamy tu:
p=P2=[2,4,6,8..] - zbiór liczb podzielnych przez 2
q=P8=[8,16,24..] - zbiór liczb podzielnych przez 8
Gdzie:
p - przyczyna (część zdania po "Jeśli …")
q - skutek (część zdania po "to…")

Podsumowując:
Kod:

Definicja warunku koniecznego ~>:
Zapis formalny:
B1: p~>q = p+~q
Zapis aktualny (przykład):
B1: p=P2
B1: q=P8
B1: P2~>P8=P2+~P8


2.3.4 Definicja kontrprzykładu w zbiorach

Definicja kontrprzykładu w zbiorach:
Kontrprzykładem dla warunku wystarczającego p=>q nazywamy to samo zdanie z zanegowanym następnikiem kodowane elementem wspólnym zbiorów p~~>~q=p*~q
Rozstrzygnięcia:
Prawdziwość warunku wystarczającego p=>q=1 wmusza fałszywość kontrprzykładu p~~>~q=p*~q=0 (i odwrotnie)
Fałszywość warunku wystarczającego p=>q=0 wmusza prawdziwość kontrprzykładu p~~>~q=p*~q=1 (i odwrotnie)

Przykład:
A1.
Jeśli dowolna liczba jest podzielna przez 8 to jest podzielna przez 2
P8=>P2=1
Podzielność dowolnej liczby przez 8 jest warunkiem wystarczającym => dla jej podzielności przez 2, bo zbiór P8=[8,16,24..] jest podzbiorem => zbioru P2=[2,4,6,8…], co każdy matematyk udowodni.

Na mocy definicji kontrprzykładu, z prawdziwości warunku wystarczającego A1 wynika fałszywość kontrprzykładu A1’ (i odwrotnie)
A1’
Jeśli dowolna liczba jest podzielna przez 8 to może ~~> nie być podzielna przez 2
P8~~>~P2 = P8*~P2 =[] =0
Dowód wprost:
Nie istnieje (=0) wspólny element zbiorów P8=[8,16,24..] i ~P2=[1,3,5,7,9…] bo dowolny zbiór liczb parzystych jest rozłączny z dowolnym zbiorem liczb nieparzystych.
Dowód "nie wprost":
Na mocy definicji kontrprzykładu fałszywości zdania A1' nie musimy udowadniać, ale możemy, co zrobiono wyżej.

Uwaga na standard w algebrze Kubusia:
Kontrprzykład dla warunku wystarczającego => A1 oznaczamy A1’

2.4 Rachunek zero-jedynkowy warunków wystarczających => i koniecznych ~>

Rachunek zero-jedynkowy dla teorii zdarzeń i teorii zbiorów jest wspólny.

Definicja stałej binarnej
Stała binarna to symbol mający w osi czasu stałą wartość logiczną 0 albo 1.

Definicja zmiennej binarnej:
Zmienna binarna to symbol, przyjmujący w osi czasu wyłącznie dwie wartości logiczne 0 albo 1.

Zachodzi tożsamość pojęć:
zmienna binarna = zmienna dwuwartościowa

Definicja zmiennej binarnej w logice dodatniej (bo p):
Zmienna binarna p wyrażona jest w logice dodatniej (bo p) wtedy i tylko wtedy gdy nie jest zanegowana.
Inaczej mamy do czynienia ze zmienną binarną w logice ujemnej (bo ~p)

Definicja funkcji logicznej Y dwóch zmiennych binarnych p i q:
Funkcja logiczna Y w logice dodatniej (bo Y) dwóch zmiennych binarnych p i q to cyfrowy układ logiczny (bramka logiczna) dający na wyjściu binarnym Y jednoznaczne odpowiedzi na wszystkie możliwe wymuszenia na wejściach p i q.

Zero-jedynkowa tabela prawdy:
Zero-jedynkowa tabela prawdy to zapis wszystkich możliwych wartościowań zmiennych binarnych w postaci tabeli zero-jedynkowej.

W poniższych tabelach T1 do T4 w kolumnach opisujących symbole {p, q Y} nie mamy stałych wartości 1 albo 0 co oznacza, że symbole te są zmiennymi binarnymi.
Kod:

T1
Definicja warunku wystarczającego =>
        Y=
   p  q p=>q=~p+q
A: 1=>1  1
B: 1=>0  0
C: 0=>0  1
D: 0=>1  1
   1  2  3
Do łatwego zapamiętania:
p=>q=0 <=> p=1 i q=0
Inaczej:
p=>q=1
Gdzie:
Podstawa wektora => zawsze wskazuje poprzednik, część zdania po "Jeśli.."
Strzałka wektora => zawsze wskazuje następnik, część zdania po "to.."
;
Definicja warunku wystarczającego => w spójniku „lub”(+):
p=>q =~p+q

##
Kod:

T2
Definicja warunku koniecznego ~>
        Y=
   p  q p~>q=p+~q
A: 1~>1  1
B: 1~>0  1
C: 0~>0  1
D: 0~>1  0
   1  2  3
Do łatwego zapamiętania:
p~>q=0 <=> p=0 i q=1
Inaczej:
p~>q=1
Gdzie:
Podstawa wektora ~> zawsze wskazuje poprzednik, część zdania po "Jeśli.."
Strzałka wektora ~> zawsze wskazuje następnik, część zdania po "to.."
;
Definicja warunku koniecznego ~> w spójniku „lub”(+):
p~>q = p+~q

##
Kod:

T3
Definicja spójnika “lub”(+):
        Y=
   p  q p+q
A: 1+ 1  1
B: 1+ 0  1
C: 0+ 0  0
D: 0+ 1  1
   1  2  3
Do łatwego zapamiętania:
Definicja spójnika „lub”(+) w logice jedynek:
p+q=1 <=> p=1 lub q=1
inaczej:
p+q=0
;
Definicja spójnika „lub”(+) w logice zer:
p+q=0 <=> p=0 i q=0
Inaczej:
p+q=1
Przy wypełnianiu tabel zero-jedynkowych szybsza jest logika zer.

##
Kod:

T4
Definicja spójnika “i”(*)
        Y=
   p  q p*q
A: 1* 1  1
B: 1* 0  0
C: 0* 0  0
D: 0* 1  0
   1  2  3
Do łatwego zapamiętania:
Definicja spójnika „i”(*) w logice jedynek:
p*q=1 <=> p=1 i q=1
inaczej:
p*q=0

Gdzie:
## - różne na mocy definicji funkcji logicznych

Definicja znaczka różne na mocy definicji ## w logice dodatniej (bo Y):
Funkcje logiczne Y w logice dodatniej (bo Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy dla identycznych wymuszeń na wejściach p i q:
p - w logice dodatniej (bo p)
oraz
q - w logice dodatniej (bo q)
mają różne kolumny wynikowe Y ( w logice dodatniej bo Y)

Wniosek:
Funkcje logiczne definiowane tabelami T1 do T4 spełniają definicję znaczka różne na mocy definicji ##

Wyprowadźmy w rachunku zero-jedynkowym matematyczne związki między warunkami wystarczającym => i koniecznym ~>
Kod:

Ax:
Warunek wystarczający =>:
p=>q = ~p+q
Matematyczne związki warunku wystarczającego => i koniecznego ~>
w rachunku zero-jedynkowym
              Y=    Y=        Y=    Y=        Y=        #  ~Y=
   p  q ~p ~q p=>q ~p~>~q [=] q~>p ~q=>~p [=] p=>q=~p+q # ~(p=>q)=p*~q
A: 1  1  0  0  =1    =1        =1    =1        =1       #    =0
B: 1  0  0  1  =0    =0        =0    =0        =0       #    =1
C: 0  0  1  1  =1    =1        =1    =1        =1       #    =0
D: 0  1  1  0  =1    =1        =1    =1        =1       #    =0
                1     2         3     4         5             6
Gdzie:
# - różne w znaczeniu iż jedna strona znaczka # jest negacją drugiej strony

##
Kod:

Bx:
Warunek konieczny ~>:
p~>q = p+~q
Matematyczne związki warunku koniecznego ~> i wystarczającego =>
w rachunku zero-jedynkowym
              Y=    Y=        Y=    Y=        Y=        #  ~Y=
   p  q ~p ~q p~>q ~p=>~q [=] q=>p ~q~>~p [=] p~>q=p+~q # ~(p~>q)=~p*q
A: 1  1  0  0  =1    =1        =1    =1        =1       #    =0
B: 1  0  0  1  =1    =1        =1    =1        =1       #    =0
C: 0  0  1  1  =1    =1        =1    =1        =1       #    =0
D: 0  1  1  0  =0    =0        =0    =0        =0       #    =1
                1     2         3     4         5             6
Gdzie:
# - różne w znaczeniu iż jedna strona znaczka # jest negacją drugiej strony

Gdzie:
## - różne na mocy definicji
"=", [=], <=> (wtedy i tylko wtedy) - tożsame znaczki tożsamości logicznej
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Definicja tożsamości logicznej:
Prawdziwość dowolnej strony tożsamości logicznej "=" wymusza prawdziwość drugiej strony
Fałszywość dowolnej strony tożsamości logicznej "=" wymusza fałszywość drugiej strony

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Doskonale widać, że w tabelach Ax i Bx definicja znaczka # jest spełniona

Definicja znaczka różne na mocy definicji ##:
Funkcje logiczne Ax i Bx są różne na mocy definicji ## wtedy i tylko wtedy gdy dla identycznych wymuszeń na wejściach {p, q} mają różne kolumny wynikowe i żadna z tych funkcji nie jest negacją drugiej.

Jak widzimy, między tabelami Ax i Bx obowiązuje znaczek różne na mocy definicji ##

2.5 Prawa algebry Kubusia wynikłe z rachunku zero-jedynkowego

Na mocy rachunku zero-jedynkowego wyżej mamy matematyczne związki warunku wystarczającego => i koniecznego ~> w zapisie skróconym.
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Na mocy powyższego zapisujemy:
1.
Prawa Kubusia:
Matematyczne związki warunku wystarczającego => i koniecznego ~> bez zamiany p i q
A1: p=>q = A2: ~p~>~q
##
B1: p~>q = B2: ~p=>~q
Ogólne prawo Kubusia:
Negujemy zmienne i wymieniamy spójniki na przeciwne
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>

2.
Prawa Tygryska:
Matematyczne związki warunku wystarczającego => i koniecznego ~> z zamianą p i q
A1: p=>q = A3: q~>p
##
B1: p~>q = B3: q=>p
Ogólne prawo Tygryska:
Zamieniamy miejscami zmienne i wymieniamy spójniki na przeciwne
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>

3.
Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A4: ~q=>~p
##
B3: q=>p = B2: ~p=>~q
Ogólne prawo kontrapozycji:
Negujemy zmienne zamieniając je miejscami bez zmiany spójnika logicznego
Gdzie:
## - różne na mocy definicji

4.
Prawa kontrapozycji dla warunku koniecznego ~>:
B1: p~>q = B4: ~q~>~p
##
A3: q~>p = A2: ~p~>~q
Ogólne prawo kontrapozycji:
Negujemy zmienne zamieniając je miejscami bez zmiany spójnika logicznego
Gdzie:
## - różne na mocy definicji

2.5.1 Definicje znaczków # i ##

Zapiszmy matematyczne związki warunku wystarczającego => i koniecznego ~>
z uwzględnieniem kolumny 6.
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:     A5B5:        A6B6:
      Y=        Y=           Y=        Y=        Y=(p=>q)= # ~Y=~(p=>q)=
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5:~p+ q   #  6: p* ~q
      ##        ##           ##        ##        ##          ##
      Y=        Y=           Y=        Y=        Y=(p~>q)= # ~Y=~(p~>q)=
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5: p+~q   #  6: ~p* q
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Definicja warunku wystarczającego => dla potrzeb rachunku zero-jedynkowego:
A1: p=>q = ~p+q
##
Definicja warunku koniecznego ~> dla potrzeb rachunku zero-jedynkowego:
B1: p~>q = p+~q
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>

Zapiszmy powyższe definicje wyrażone funkcjami logicznymi Y i ~Y
Kod:

T0"
Funkcja logiczna Y warunku wystarczającego =>:
A5: Y=(p=>q)=~p+ q   # A6: ~Y=~(p=>q)= p*~q
    ##                     ##
Funkcja logiczna Y warunku koniecznego ~>:
B5: Y=(p~>q)= p+~q   # B6: ~Y=~(p~>q)=~p* q
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

Doskonale widać, że w tabeli T0" obie definicje znaczków # i ## są perfekcyjnie spełnione

2.6 Fundamentalne definicje i prawa algebry Kubusia

Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

2.6.1 Prawa Sowy

I Prawo Sowy
Dla udowodnienia prawdziwości wszystkich zdań serii Ax potrzeba i wystarcza udowodnić prawdziwość dowolnego zdania serii Ax
Dla udowodnienia fałszywości wszystkich zdań serii Ax potrzeba i wystarcza udowodnić fałszywość dowolnego zdania serii Ax
##
II Prawo Sowy
Dla udowodnienia prawdziwości wszystkich zdań serii Bx potrzeba i wystarcza udowodnić prawdziwość dowolnego zdania serii Bx
Dla udowodnienia fałszywości wszystkich zdań serii Bx potrzeba i wystarcza udowodnić fałszywość dowolnego zdania serii Bx
Gdzie:
## - różne na mocy definicji

2.6.2 Definicja tożsamości logicznej

Prawa Sowy to:
Ogólna definicja tożsamości logicznej „=” dla wielu zdań:
Prawdziwość dowolnego zdania w tożsamości logicznej „=” wymusza prawdziwość pozostałych zdań
Fałszywość dowolnego zdania w tożsamości logicznej „=” wymusza fałszywość pozostałych zdań

Tożsame znaczki tożsamości logicznej to:
„=”, [=], <=> (wtedy i tylko wtedy)

2.6.3 Definicja dowodu "nie wprost" w algebrze Kubusia

Definicja dowodu „nie wprost” w algebrze Kubusia:
Dowód „nie wprost” w algebrze Kubusia to dowód warunku koniecznego ~> lub wystarczającego => z wykorzystaniem praw logiki matematycznej (prawa Kubusia, prawa Tygryska, prawa kontrapozycji dla warunku wystarczającego =>, prawa kontrapozycji dla warunku koniecznego ~>) plus definicja kontrprzykładu.

2.6.4 Prawa Prosiaczka

I Prawo Prosiaczka:
Prawda (=1) w logice dodatniej (bo Y) jest tożsama z fałszem (=0) w logice ujemnej (bo ~Y)
(Y=1) = (~Y=0)
##
II Prawo Prosiaczka:
Fałsz (=0) w logice dodatniej (bo Y) jest tożsamy z prawdą (=1) w logice ujemnej (bo ~Y)
(Y=0) = (~Y=1)
Gdzie:
## - różne na mocy definicji

Prawa Prosiaczka wiążą zmienną binarną w logice dodatniej (bo Y) ze zmienną binarną w logice ujemnej (bo ~Y).
Prawa Prosiaczka możemy stosować wybiórczo w stosunku do dowolnej zmiennej binarnej.
Dowód praw Prosiaczka na gruncie fizyki znajdziemy w punkcie 1.4.1

2.7 Prawo Kłapouchego - kluczowe prawo logiki matematycznej

Prawo Kłapouchego:
Domyślny punkt odniesienia dla zdań warunkowych „Jeśli p to q”:
W zapisie aktualnym zdań warunkowych (w przykładach) po „Jeśli…” mamy zdefiniowaną przyczynę p zaś po „to..” mamy zdefiniowany skutek q z pominięciem przeczeń.
Prawo Kłapouchego determinuje wspólny dla wszystkich ludzi punktu odniesienia zawarty wyłącznie w kolumnach A1B1 oraz A2B2, dający odpowiedź na pytanie o p (A1B1) oraz o ~p (A2B2).

Prawo Kłapouchego jest tożsame z otwarciem drzwiczek pudełka z kotem Schrödingera (pkt.5.4.1)
Prawo Kłapouchego obowiązuje dla standardu dodatniego w języku potocznym człowieka.

Definicja standardu dodatniego w języku potocznym człowieka:
W języku potocznym ze standardem dodatnim mamy do czynienia wtedy i tylko wtedy gdy wszelkie przeczenia (~) w zdaniach są uwidocznione w kodowaniu matematycznym tych zdań.

Innymi słowy:
W kodowaniu matematycznym dowolnych zdań z języka potocznego wszystkie zmienne muszą być sprowadzone do logicznych jedynek na mocy prawa Prosiaczka.
Logiką matematycznie zgodną z językiem potocznym człowieka jest tylko i wyłącznie standard dodatni.

2.7.1 Definicja podstawowego spójnika implikacyjnego
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Definicja podstawowego spójnika implikacyjnego
Podstawowy spójnik implikacyjny to badanie prawdziwości/fałszywości zdań w kolumnie A1B1 dającej odpowiedź na pytanie:
A1B1: Kiedy zajdzie p?

Podstawowe, przykładowe spójniki implikacyjne to implikacja prosta p|=>q i implikacja odwrotna p|~>q

Definicja implikacji prostej p|=>q
Implikacja prosta p|=>q to zachodzenie wyłącznie warunku wystarczającego => między tymi samymi punktami i w tym samym kierunku
A1: p=>q=1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q=0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(0)=1*1=1
##
Definicja implikacji odwrotnej p|~>q
Implikacja odwrotna p|~>q to zachodzenie wyłącznie warunku koniecznego ~> między tymi samymi punktami i w tym samym kierunku
A1: p=>q=0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q=1 - zajście p jest (=1) konieczne ~> dla zajścia q
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(0)*1=1*1=1
Gdzie:
## - różne na mocy definicji implikacji prostej p|=>q i odwrotnej p|~>q

2.7.2 Prawo Kłapouchego i prawo Kameleona w implikacji prostej p|=>q

Dane jest zdanie:
A1.
Jeśli jutro będzie padało to będzie pochmurno
Polecenie:
Zbadaj w skład jakiego podstawowego spójnika implikacyjnego wchodzi to zdanie

Rozwiązanie:
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
A1: P=>CH =1
Padanie jest (=1) warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury

Na mocy prawa Kłapouchego mamy:
p=P (pada)
q=CH (chmury)

Aby rozstrzygnąć w skład jakiego spójnika implikacyjnego wchodzi badane zdanie musimy zbadać prawdziwość/fałszywość warunku koniecznego ~> między tymi samymi punktami i w tym samym kierunku

##

B1.
Jeśli jutro będzie padało (P) to na 100% ~> będzie pochmurno (CH)
P~>CH =0
Padanie nie jest (=0) warunkiem koniecznym ~> dla istnienia chmur, bo może nie padać, a chmury mogą istnieć.

Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>

Stąd mamy wyprowadzone prawo Kameleona.

Prawo Kameleona:
Dwa zdania brzmiące identycznie z dokładnością do każdej literki i każdego przecinka nie muszą być matematycznie tożsame.
Dowód:
Zdania A1 i B1 wyżej.
Różność matematyczną zdań A1 i B1 rozpoznajemy wyłącznie po znaczkach warunku wystarczającego => (A1) i koniecznego ~> (B1) wbudowanych w treść zdań

W zapisach formalnych (ogólnych) zachodzi:
A1: p=>q = ~p+q ## B1: p~>q = p+~q
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>

Nasza tabela prawdy z uwzględnieniem prawa Kłapouchego wygląda tak:
Kod:

T1
Tabela prawdy implikacji prostej p|=>q w zapisie formalnym:
A1: p=>q=1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q=0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(0)=1*1=1
To samo w zapisie aktualnym (nasz przykład):
p=P (pada)
q=CH (chmury)
A1: P=>CH=1 - padanie jest (=1) wystarczające => dla istnienia chmur
B1: P~>CH=0 - padanie nie jest (=0) konieczne ~> dla istnienia chmur
A1B1: P|=>CH = (A1: P=>CH)*~(B1: P~>CH)=1*~(0)=1*1=1
Matematyczne relacje między warunkiem wystarczającym => i koniecznym ~>
dla spełnionego warunku wystarczającego P=>CH=1
   Warunek wystarczający p=>q      | Warunek konieczny p~>q
   Zapis formalny:                 | Zapis formalny:
1: Y = A1: p=>q =~p+q             ## Y = B1: p~>q = B3: q=>p = p+~q
   Zapis aktualny (przykład):      | Zapis aktualny (przykład)
2: p=P (pada)                    [=] p=P (pada)
3: q=CH (chmury)                 [=] q=CH (chmury)
4: A1: P=>CH=1                    ## B1: P~>CH=0
P jest wystarczające => dla CH    ## P nie jest (=0) konieczne ~> dla CH
Gdzie:
##  - różne na mocy definicji
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia


2.7.3 Prawo Kłapouchego w implikacji odwrotnej p|~>q

Dane jest zdanie:
Jeśli jutro będzie pochmurno to może padać
Polecenie:
Zbadaj w skład jakiego podstawowego spójnika implikacyjnego wchodzi powyższe zdanie

Rozwiązanie:
B1.
Jeśli jutro będzie pochmurno (CH) to może ~> padać (P)
B1: CH~>P =1
Chmury (CH) są (=1) konieczne ~> dla padania (P), bo padać może wyłącznie z chmurki (CH)

Na mocy prawa Kłapouchego mamy:
p=CH (chmury)
q=P (pada)

Aby rozstrzygnąć w skład jakiego spójnika implikacyjnego wchodzi zdanie B1 musimy zbadać prawdziwość/fałszywość warunku wystarczającego => między tymi samymi punktami i w tym samym kierunku.

##

A1.
Jeśli jutro będzie pochmurno (CH) to na 100% => będzie padało (P)
CH=>P =0
Chmury nie są (=0) warunkiem wystarczającym => dla padania, bo nie zawsze gdy są chmury, pada.
Gdzie:
## - zdania B1 i A1 to zdania różne na mocy definicji warunku koniecznego ~> i wystarczającego =>

Dowód w zapisach formalnych:
B1: p~>q=p+~q ## A1: p=>q=~p+q
Gdzie:
## - różne na mocy definicji warunku koniecznego ~> i wystarczającego =>

Nasza tabela prawdy z uwzględnieniem prawa Kłapouchego wygląda tak:
Kod:

T2
Implikacja odwrotna p|~>q to zachodzenie wyłącznie warunku koniecznego ~>
między tymi samymi punktami i w tym samym kierunku
A1: p=>q=0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q=1 - zajście p jest (=1) konieczne ~> dla zajścia q
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(0)*1=1*1=1
To samo w zapisie aktualnym (nasz przykład):
p=CH (chmury)
q=P (pada)
A1: CH=>P=0 - chmury nie są (=0) wystarczające => dla padania
B1: CH~>P=1 - chmury są (=1) konieczne ~> dla padania
A1B1: CH|~>P = ~(A1: CH=>P)*(B1: CH~>P)=~(0)*1=1*1=1
Matematyczne relacje między warunkiem wystarczającym => i koniecznym ~>
dla spełnionego warunku koniecznego CH~>P=1
   Warunek wystarczający p=>q         | Warunek konieczny p~>q
   Zapis formalny:                    | Zapis formalny:
1: Y = A1: p=>q =~p+q                ## Y = B1: p~>q = B3: q=>p = p+~q
   Zapis aktualny (przykład):         | Zapis aktualny (przykład)
2: p=CH (chmury)                    [=] p=CH (chmury)
3: q=P (pada)                       [=] q=P (pada)
4: CH=>P=0                           ## CH~>P=1
CH nie są wystarczające => dla P     ## CH są (=1) konieczne ~> dla P
Gdzie:
##  - różne na mocy definicji
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia


2.7.4 Nietrywialny błąd podstawienia ###

Zapiszmy przykłady warunku wystarczającego => i koniecznego ~> w zdarzeniach
A1.
Przykład spełnionego warunku wystarczającego =>:
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
A1: P=>CH =1
Padanie jest (=1) warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury

Na mocy prawa Kłapouchego mamy:
p=P (pada)
q=CH (chmury)

B1.
Przykład spełnionego warunku koniecznego ~>:
Jeśli jutro będzie pochmurno (CH) to może ~> padać (P)
B1: CH~>P =1
Chmury (CH) są (=1) konieczne ~> dla padania (P), bo padać może wyłącznie z chmurki.

Na mocy prawa Kłapouchego mamy:
p=CH (chmury)
q=P (pada)

Umieśćmy nasze przykłady A1 i B1 w tabeli prawdy:
Kod:

Nietrywialny błąd podstawienia ###:
Definicja warunku wystarczającego =>: | Definicja warunku koniecznego ~>:
Zapis formalny:                       | Zapis formalny:
1. Y = A1: p=>q =~p+q                ## Y = B1: p~>q = B3: q=>p = p+~q
   Zapis aktualny (przykład):         | Zapis aktualny (przykład)
2. A1: p=P (pada)                   ### B1: p=CH (chmury)
3. A1: q=CH (chmury)                ### B1: q=P (pada)
4. A1: Y= A1: P=>CH =~P+CH          ### B1: Y= B1: CH~>P = B3: P=>CH =CH+~P
Gdzie:
##  - różne na mocy definicji
### - różne na mocy nietrywialnego błędu podstawienia
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Zauważmy że:
1.
Suma logiczna (+) jest przemienna stąd w linii 4 zachodzi pozorna tożsamość logiczna [=].
2.
W rzeczywistości pozorna tożsamość [=] w linii 4 nie zachodzi, bowiem mamy tu do czynienia z nietrywialnym błędem podstawienia ###
3.
W liniach 2 i 3 doskonale widać na czym ten nietrywialny błąd podstawienia ### polega:
Warunek wystarczający A1: p=>q jest tu obserwowany z punktu odniesienia p=P i q=CH
Natomiast:
Warunek konieczny B1: p~>q jest tu obserwowany z innego punktu odniesienia p=CH i q=P

Prawo Wielbłąda:
Otaczająca nas rzeczywistość wygląda różnie z różnych punktów odniesienia.
Innymi słowy:
Otaczającą nas rzeczywistość opiszemy matematycznie poprawnie wtedy i tylko wtedy gdy będziemy na nią patrzeć z tego samego punktu odniesienia.
Poprawny opis rzeczywistości w naszym przykładzie to punkty 2.7.2 i 2.7.3

Stąd mamy:
Definicja nietrywialnego błędu podstawienia ###:
Dwie funkcje logiczne Y są różne na mocy nietrywialnego błędu podstawienia ### wtedy i tylko wtedy gdy w zapisach formalnych (ogólnych) są różne na mocy definicji ## (linia 1), zaś w zapisach aktualnych (przykład) skolerowanych z zapisem formalnym funkcje te są tożsame (linia 4)

Wniosek:
Prawo Kłapouchego broni nas przed niejednoznacznością logiki matematycznej, bowiem tylko i wyłącznie dzięki niemu zauważymy nietrywialny błąd podstawienia ###
Prawo Kłapouchego jest tożsame z otwarciem drzwiczek pudełka z kotem Schrödingera (pkt. 5.4.1)

2.8 Prawa Słonia

Prawa Słonia dla zdarzeń i zbiorów to najważniejsze prawa w logice matematycznej.
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia


2.8.1 Prawo Słonia dla zbiorów

Prawo Słonia dla zbiorów (pkt 2.3):
W algebrze Kubusia w zbiorach zachodzi tożsamość [=] pojęć:
A1: p=>q - warunek wystarczający => [=] A1: p=>q - relacja podzbioru => [=] A1: p=>q - matematyczne twierdzenie proste
A1: p=>q = ~p+q
##
B1: p~>q - warunek konieczny ~> [=] B1: p~>q - relacja nadzbioru ~> [=] B3: q=>p - matematyczne twierdzenie odwrotne (w odniesieniu do A1)
Prawo Tygryska:
B1: p~>q = B3: q=>p = p+~q
Gdzie:
[=], „=”, <=> - tożsame znaczki tożsamości logicznej
<=> - wtedy o tylko wtedy
## - różne na mocy definicji
p i q musi być wszędzie tymi samymi p i q, inaczej błąd podstawienia

Definicja tożsamości logicznej [=]:
Prawdziwość dowolnego członu z tożsamości logicznej [=] wymusza prawdziwość pozostałych członów.
Fałszywość dowolnego członu z tożsamości logicznej [=] wymusza fałszywość pozostałych członów.

Z definicji tożsamości logicznej [=] wynika, że:
a)
Udowodnienie prawdziwości dowolnego członu powyższej tożsamości logicznej gwarantuje prawdziwość dwóch pozostałych członów
b)
Udowodnienie fałszywości dowolnego członu powyższej tożsamości logicznej gwarantuje fałszywość dwóch pozostałych członów

Na mocy prawa Słonia i jego powyższej interpretacji, możemy dowodzić prawdziwości/fałszywości dowolnych zdań warunkowych "Jeśli p to q" mówiących o zbiorach metodą ”nie wprost"

Definicja podzbioru =>:
Zbiór p jest (=1) podzbiorem => zbioru q wtedy i tylko wtedy gdy wszystkie jego elementy należą do zbioru q

Definicja nadzbioru ~>
Zbiór p jest (=1) nadzbiorem ~> zbioru q wtedy i tylko wtedy gdy zawiera co najmniej wszystkie elementy zbioru q

W logice matematycznej zachodzi tożsamość pojęć:
Podzbiór => = relacja podzbioru =>
Nadzbiór ~> = relacja nadzbioru ~>
W logice matematycznej rozstrzygamy o zachodzącej lub nie zachodzącej relacji podzbioru => czy też nadzbioru ~>.

Rozstrzygnięcia logiki matematycznej w relacji podzbioru =>:
p=>q =1 - wtedy i tylko wtedy gdy zbiór p jest (=1) podzbiorem => zbioru q
Inaczej:
p=>q =0 - wtedy i tylko wtedy gdy zbiór p nie jest (=0) podzbiorem => zbioru q

##

Rozstrzygnięcia logiki matematycznej w relacji nadzbioru ~>:
p~>q =1 - wtedy i tylko wtedy gdy zbiór p jest (=1) nadzbiorem ~> zbioru q
Inaczej:
p~>q =0 - wtedy i tylko wtedy gdy zbiór p nie jest (=0) nadzbiorem ~> zbioru q

Gdzie:
## - różne na mocy definicji podzbioru => i nadzbioru ~>

Przykład:
Zbadaj czy zachodzi warunek wystarczający => w poniższym zdaniu:
A1.
Jeśli dowolna liczba jest podzielna przez 8 to jest podzielna przez 2
A1: P8=>P2=?

Rozwiązanie:
Na mocy prawa Kłapouchego zapis formalny (ogólny) zdania A1 to:
A1: p=>q =1
Gdzie:
p=P8
q=P2

Prawo Słonia dla zbiorów:
W algebrze Kubusia w zbiorach zachodzi tożsamość [=] pojęć:
A1: p=>q - warunek wystarczający => [=] A1: p=>q - relacja podzbioru => [=] A1: p=>q matematyczne twierdzenie proste =>

W metodzie "nie wprost" na mocy prawa Słonia dowodzimy prawdziwości relacji podzbioru =>.
Innymi słowy badamy:
Czy zbiór P8=[8,16,24..] jest podzbiorem => zbioru P2=[2,4,6,8..]?
Oczywiście relacja podzbioru => jest (=1) tu spełniona:
P8=>P2=1
co każdy matematyk bez trudu udowodni.

W tym momencie na mocy prawa Słonia mamy udowodnione metodą "nie wprost" dwa fakty czysto matematyczne:
1.
Twierdzenie proste A1 jest prawdziwe
A1: P8=>P2 =1
2.
Podzielność dowolnej liczby przez 8 jest warunkiem wystarczającym => dla jej podzielności przez 2
A1: P8=>P2 =1

Podsumowując:
Z gołych definicji podzbioru => i warunku wystarczającego => nic w matematyce nie wynika, dopóki nie poznamy prawa Słonia.
Dopiero prawo Słonia w dowodzeniu prawdziwości warunku wystarczającego =>, czy też prawdziwości samego zdania warunkowego „Jeśli p to q" ma fundamentalne znaczenie, co udowodniono ciut wyżej.

2.8.2 Prawo Słonia dla zdarzeń

Prawo Słonia dla zdarzeń (pkt 2.2):
W algebrze Kubusia w zdarzeniach zachodzi tożsamość [=] pojęć:
A1: p=>q - warunek wystarczający => [=] A1: p=>q - relacja podzbioru => [=] A1: p=>q - matematyczne twierdzenie proste
A1: p=>q = ~p+q
##
B1: p~>q - warunek konieczny ~> [=] B1: p~>q - relacja nadzbioru ~> [=] B3: q=>p - matematyczne twierdzenie odwrotne (w odniesieniu do A1)
Prawo Tygryska:
B1: p~>q = B3: q=>p = p+~q
Gdzie:
[=], „=”, <=> - tożsame znaczki tożsamości logicznej
<=> - wtedy o tylko wtedy
## - różne na mocy definicji
p i q musi być wszędzie tymi samymi p i q, inaczej błąd podstawienia

Relacja podzbioru => i nadzbioru ~> w zdarzeniach nie jest intuicyjna, ale można ją łatwo udowodnić co zostało pokazane w punktach 2.2.2 i 2.2.3.

Definicja tożsamości logicznej [=]:
Prawdziwość dowolnego członu z tożsamości logicznej [=] wymusza prawdziwość pozostałych członów.
Fałszywość dowolnego członu z tożsamości logicznej [=] wymusza fałszywość pozostałych członów.

Z definicji tożsamości logicznej [=] wynika, że:
a)
Udowodnienie prawdziwości dowolnego członu powyższej tożsamości logicznej gwarantuje prawdziwość dwóch pozostałych członów
b)
Udowodnienie fałszywości dowolnego członu powyższej tożsamości logicznej gwarantuje fałszywość dwóch pozostałych członów

Na mocy prawa Słonia i jego powyższej interpretacji, możemy dowodzić prawdziwości/fałszywości
dowolnych zdań warunkowych "Jeśli p to q" mówiących o zbiorach metodą ”nie wprost"

W zdarzeniach dowodzimy:
1.
Warunku wystarczającego p=>q co na mocy prawa Słonia jest tożsame z udowodnieniem, iż zdarzenie p jest podzbiorem => zdarzenia q
albo
2.
Warunku koniecznego p~>q co na mocy prawa Słonia jest tożsame z udowodnieniem, iż zdarzenie p jest nadzbiorem ~> zdarzenia q

2.9 Prawo Irbisa
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia


2.9.1 Prawo Irbisa dla zbiorów

Definicja równoważności p<=>q:
Równoważność p<=>q w logice dodatniej (bo q) to spełnienie zarówno warunku wystarczającego =>, jak i koniecznego ~> między tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy definicję równoważności p<=>q w równaniu logicznym:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1 =1
Czytamy:
Równoważność p<=>q w logice dodatniej (bo q) jest spełniona (=1) wtedy i tylko wtedy gdy
Zajście p jest (=1) konieczne ~> (B1) i wystarczające => (A1) dla zajścia q
Innymi słowy:
Zajście p jest (=1) warunkiem koniecznym ~> (B1) i wystarczającym => (A1) dla zajścia q
Innymi słowy:
Do tego by zaszło q potrzeba ~> (B1) i wystarcza => (A1) by zaszło p

Ta wersja równoważności jest powszechnie znana.

I Prawo Słonia dla zbiorów:
W algebrze Kubusia w zbiorach zachodzi tożsamość [=] pojęć:
A1: p=>q - warunek wystarczający => [=] A1: p=>q - relacja podzbioru => [=] A1: p=>q - matematyczne twierdzenie proste
Y = A1: p=>q = ~p+q
##
II Prawo Słonia dla zbiorów:
B1: p~>q - warunek konieczny ~> [=] B1: p~>q - relacja nadzbioru ~> [=] B3: q=>p - matematyczne twierdzenie odwrotne (w odniesieniu do A1)
Prawo Tygryska:
Y = B1: p~>q = B3: q=>p = p+~q

Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q musi być wszędzie tymi samymi p i q, inaczej błąd podstawienia
[=], „=”, <=> - tożsame znaczki tożsamości logicznej

Na mocy prawa Słonia oraz tabeli T0 możemy wygenerować dużą ilość tożsamych definicji równoważności p<=>q.

Przykładowe, najbardziej użyteczne definicje to:
1.
Matematyczna definicja równoważności p<=>q (znana każdemu matematykowi):

Równoważność p<=>q to jednoczesna prawdziwość matematycznego twierdzenia prostego A1: p=>q i matematycznego twierdzenia odwrotnego B3: q=>p
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q, twierdzenie proste A1.
B3: q=>p =1 - zajście q jest (=1) wystarczające => dla zajścia p, twierdzenie odwrotne (względem A1)
Stąd mamy:
A1B3: p<=>q = (A1: p=>q)*(B3: q=>p) =1*1 =1

2.
Definicja równoważności wyrażona relacjami podzbioru =>

Równoważność p<=>q to relacja podzbioru => zachodząca w dwie strony
A1: p=>q =1 - wtedy i tylko wtedy gdy zbiór p jest (=1) podzbiorem => zbioru q
B3: q=>p =1 - wtedy i tylko wtedy gdy zbiór q jest (=1) podzbiorem => zbioru p
Stąd mamy:
A1B3: p<=>q = (A1: p=>q)*(B3: q=>p) =1*1 =1

Stąd mamy:

Prawo Irbisa dla zbiorów:
Dwa zbiory p i q są tożsame p=q wtedy i tylko wtedy gdy zbiór p jest podzbiorem => zbioru q (A1) i jednocześnie zbiór q jest podzbiorem => zbioru p (B3)
A1B3: p=q <=> (A1: p=>q)*(B3: q=>p)= A1B3: p<=>q
Prawo Irbisa znane jest każdemu matematykowi.

Innymi słowy:
Każda równoważność prawdziwa p<=>q definiuje tożsamość zbiorów p=q (i odwrotnie)
A1B3: p<=>q = (A1: p=>q)*(B3: q=>p) <=> A1B3: p=q

Prawo Irbisa w relacjach podzbioru => i nadzbioru ~>.

Prawo Irbisa dla zbiorów:
Dwa zbiory p i q są tożsame p=q wtedy i tylko wtedy gdy zbiór p jest (=1) podzbiorem => zbioru q (A1) i jednocześnie zbiór p jest (=1) nadzbiorem ~> zbioru q (B1)
A1: p=>q =1 - wtedy i tylko wtedy gdy zbiór p jest (=1) podzbiorem => zbioru q
B1: p~>q =1 - wtedy i tylko wtedy gdy zbiór p jest (=1) nadzbiorem ~> zbioru q
Stąd mamy:
A1B1: p=q <=> (A1: p=>q)*(B1: p~>q) = A1B1: p<=>q
Dowód:
Oczywistość, bo na mocy definicji podzbioru => i nadzbioru ~> każdy zbiór jest jednocześnie podzbiorem => i nadzbiorem ~> siebie samego.

Korzystając z prawa Słonia prawo Irbisa możemy też zapisać w warunkach koniecznym ~> (B1) i wystarczającym => (A1).

Prawo Irbisa dla zbiorów:
Dwa zbiory p i q są tożsame p=q wtedy i tylko wtedy gdy zajście p jest konieczne ~> (B1) i wystarczające => (A1) dla zajścia q
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy:
A1B1: p=q <=> (A1: p=>q)*(B1: p~>q) = A1B1: p<=>q

Stąd mamy tabelę prawdy równoważności p<=>q z uwzględnieniem prawa Irbisa.
Kod:

TR
Definicja równoważności:
Równoważność to jednocześnie zachodzący warunek wystarczający => i konieczny ~> między tymi samymi punktami i w tym samym kierunku
Dla kolumny A1B1 mamy:
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1 =1

       A1B1:       A2B2:      |     A3B3:       A4B4:
A:  1: p=>q=1  = 2:~p~>~q=1  [=] 3: q~>p=1  = 4:~q=>~p=1  [=] 5: ~p+q =1
       ##           ##              ##           ##               ##
B:  1: p~>q=1  = 2:~p=>~q=1  [=] 3: q=>p=1  = 4:~q~>~p=1  [=] 5:  p+~q=1
-----------------------------------------------------------------------
Równoważność <=>:             |     Równoważność <=>:
AB: 1: p<=>q=1 = 2:~p<=>~q=1 [=] 3: q<=>p=1 = 4:~q<=>~p=1 [=] 5: p*q+~p*~q
definiuje tożsamość zbiorów:  |     definiuje tożsamość zbiorów:
AB: 1: p=q     # 2:~p=~q      |  3: q=p     # 4:~q=~p
Gdzie:
# - różne w znaczeniu iż jedna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia
"=",[=],<=> - znaczki tożsamości logicznej


2.9.2 Prawo Irbisa dla zdarzeń

Prawo Irbisa dla zdarzeń:
Dwa zdarzenia p i q są tożsame p=q wtedy i tylko wtedy gdy zajście zdarzenia p jest konieczne ~> (B1) i wystarczające => (A1) dla zajścia zdarzenia q
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy:
A1B1: p=q <=> (A1: p=>q)*(B1: p~>q) = A1B1: p<=>q

Przykład:
Pani w przedszkolu:
A1.
Jutro pójdziemy do kina
Y=K
co w logice jedynek oznacza:
Y=1 <=> K=1
Czytamy:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1)

Na mocy prawa Irbisa zachodzi tożsamość pojęć:
Y=K <=> (A1: Y=>K)*(B1: Y~>K) = Y<=>K
Lewą stronę czytamy:
Pojęcie „pani dotrzyma słowa” (Y) jest tożsame „=” z pojęciem „pójdziemy do kina” (K)
Środek czytamy:
Do tego by dzieci poszły do kina (K) potrzeba ~> (B1) i wystarcza => (A1) by pani dotrzymała słowa (Y)
Prawą stronę czytamy:
Pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K)


Ostatnio zmieniony przez rafal3006 dnia Pon 12:38, 16 Wrz 2024, w całości zmieniany 3 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 34685
Przeczytał: 26 tematów

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Pon 7:38, 16 Wrz 2024    Temat postu:

Kwintesencja algebry Kubusia
Część IV Kompendium algebry Kubusia. Część II

Spis treści
2.10 Podstawowe spójniki implikacyjne 1
2.10.1 Prawo Puchacza 4
2.11 Algorytm Puchacza 6
2.11.1 Przykłady zdań niespełniających algorytmu Puchacza 7
2.11.2 Przypadek szczególny prawdziwości zdań warunkowych „Jeśli p to q” 8
2.12 Implikacja prosta p|=>q 9
2.12.1 Operator implikacji prostej p||=>q 10
2.13 Implikacja odwrotna p|~>q 12
2.13.1 Operator implikacji odwrotnej p||~>q 13
2.14 Równoważność p<=>q 15
2.14.1 Operator równoważności p|<=>q 16
2.15 Chaos p|~~>q 18
2.15.1 Operator chaosu p||~~>q 20
2.16 Sztandarowy przykład implikacji prostej P|=>CH 21
2.16.1 Prawo Kameleona 22
2.16.2 Operator implikacji prostej P||=>CH 23
2.16.3 Twarde i miękkie zera i jedynki 26
2.17 Tabela prawdy operatora implikacji prostej p||=>q 26
2.17.1 Zero-jedynkowa definicja warunku wystarczającego p=>q 27


2.10 Podstawowe spójniki implikacyjne
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

I Prawo Sowy
Dla udowodnienia prawdziwości wszystkich zdań serii Ax potrzeba i wystarcza udowodnić prawdziwość dowolnego zdania serii Ax
Dla udowodnienia fałszywości wszystkich zdań serii Ax potrzeba i wystarcza udowodnić fałszywość dowolnego zdania serii Ax
##
II Prawo Sowy
Dla udowodnienia prawdziwości wszystkich zdań serii Bx potrzeba i wystarcza udowodnić prawdziwość dowolnego zdania serii Bx
Dla udowodnienia fałszywości wszystkich zdań serii Bx potrzeba i wystarcza udowodnić fałszywość dowolnego zdania serii Bx
Gdzie:
## - różne na mocy definicji

Definicja podstawowego spójnika implikacyjnego:
Podstawowy spójnik implikacyjny to spójnik definiowany kolumną A1B1 w matematycznych związkach warunku wystarczającego => i koniecznego ~> dający odpowiedź na pytanie o p:
Co się stanie jeśli zajdzie p?
A1: p=>q =? - czy zajście p jest wystarczające => dla zajścia q? TAK=1/NIE=0
B1: p~>q =? - czy zajście p jest konieczne ~> dla zajścia q? TAK=1/NIE=0
A1B1: p?q = (~)(A1: p=>q)*(~)(B1: p~>q)
Gdzie:
? - symbol spójnika implikacyjnego
(~) - symbol negacji który może wystąpić, ale nie musi, w zależności od wartości logicznej A1 i B1

Z definicji spójnika implikacyjnego wynika, że możliwe są cztery podstawowe spójniki implikacyjne:

1.
Implikacja prosta p|=>q:

Implikacja prosta p|=>q to zachodzenie wyłącznie warunku wystarczającego => między tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(0)=1*1=1
;
Definicja warunku wystarczającego =>:
p=>q = ~p+q
Definicja warunku koniecznego ~>:
p~>q = p+~q
Definicja implikacji prostej p|=>q:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)
Korzystając z definicji znaczków => i ~> mamy:
Y = (p|=>q) = (~p+q)*~(p+~q) = (~p+q)*(~p*q) =~p*~p*q+q*~p*q = ~p*q+~p*q=~p*q
Kolejność wykonywania działań w algebrze Kubusia:
Negacja (~), nawiasy, "i"(*), "lub"(+)

Do zapamiętania:
Definicja implikacji prostej p|=>q w spójnikach "i"(*) i "lub"(+):
Y = (p|=>q) = ~p*q

##
2.
Implikacja odwrotna p|~>q:

Implikacja odwrotna p|~>q to zachodzenie wyłącznie warunku koniecznego ~> między tymi samymi punktami i w tym samym kierunku
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
p|~>q = ~(A1: p=>q)*(B1: p~>q)=1*1=1
;
Definicja warunku wystarczającego =>:
p=>q = ~p+q
Definicja warunku koniecznego ~>:
p~>q = p+~q
Definicja implikacji odwrotnej p|~>q:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)
Korzystając z definicji znaczków => i ~> mamy:
Y = (p|~>q) = ~(~p+q)*(p+~q) = (p*~q)*(p+~q) =(p*~q)*p + (p*~q)*~q = p*~q+p*~q = p*~q

Do zapamiętania:
Definicja implikacji odwrotnej p|~>q w spójnikach "i"(*) i "lub"(+):
Y = (p|~>q) = p*~q

##
3.
Równoważność p<=>q:

Równoważność p<=>q to zachodzenie zarówno warunku wystarczającego => jak i koniecznego ~> miedzy tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
p<=>q = (A1: p=>q)*(B1: p~>q)=1*1=1
;
Definicja warunku wystarczającego =>:
p=>q = ~p+q
Definicja warunku koniecznego ~>:
p~>q = p+~q
Stąd mamy:
Y = p<=>q = (A1: p=>q)*(B1: p~>q) = (~p+q)*(p+~q) = ~p*p + ~p~q + q*p + q*~q = p*q+~p*~q

Do zapamiętania:
Definicja równoważności p<=>q w spójnikach "i"(*) i "lub"(+):
Y = p<=>q = p*q + ~p*~q

##
4.
Chaos p|~~>q:

Chaos p|~~>q to nie zachodzenie ani warunku wystarczającego =>, ani też koniecznego ~> miedzy tymi samymi punktami i w tym samym kierunku
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
p|~~>q = ~(A1: p=>q)*~(B1: p~>q)=~(0)*~(0)=1*1=1
;
Definicja chaosu w spójnikach "lub"(+) i "i"(*):
Chaos p|~~>q to zdanie zawsze prawdziwe przez wszystkie możliwe przeczenia p i q
Y = p*q+~p*q + p*~q + ~p*~q = q*(p+~p)+~q*(p+~p) = q+~q =1

Do zapamiętania:
Definicja chaosu p|~~>q w spójnikach "lub"(+) i "i"(*):
Y = p*q+~p*q + p*~q + ~p*~q =1

Gdzie:
## - różne na mocy definicji

2.10.1 Prawo Puchacza

Prawo Puchacza:
Dowolne zdanie warunkowe „Jeśli p to q” może wchodzić w skład jednego i tylko jednego spójnika implikacyjnego.

Dowód prawa Puchacza będzie polegał na założeniu, iż zdanie warunkowe „Jeśli p to q” jest częścią spójnika implikacyjnego x i pokazaniu iż pozostałe spójniki będą dla tego przypadku fałszem.

Dowód prawa Puchacza:

I.
Założenie p|=>q

Załóżmy że zdanie warunkowe „Jeśli p to q” jest częścią implikacji prostej p|=>q
Wtedy mamy:
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
Stąd:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(0)=1*1=1

Badamy prawdziwość/fałszywość pozostałych, podstawowych spójników implikacyjnych:
2.
Implikacja odwrotna p|~>q:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(1)*0=0*0=0
3.
Równoważność p<=>q:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) = 1*0=0
4.
Chaos p|~~>q:
A1B1: p|~~>q = ~(A1: p=>q)*~(B1: p~>q) = ~(1)*~(0)=0*1=0
c.n.d.

II.
Założenie p|~>q

Załóżmy że zdanie warunkowe „Jeśli p to q” jest częścią implikacji odwrotnej p|~>q
Wtedy mamy:
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(0)*1=1*1=1

Badamy prawdziwość/fałszywość pozostałych, podstawowych spójników implikacyjnych:
1.
Implikacja prosta p|=>q:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=0*~(1)=0*0=0
3.
Równoważność p<=>q:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) = 0*1=0
4.
Chaos p|~~>q:
A1B1: p|~~>q = ~(A1: p=>q)*~(B1: p~>q) = ~(0)*~(1)=1*0=0
c.n.d.

III.
Założenie p<=>q

Załóżmy że zdanie warunkowe „Jeśli p to q” jest częścią równoważności p<=>q
Wtedy mamy:
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd:
A1B1: p|~>q = (A1: p=>q)*(B1: p~>q)=1*1=1

Badamy prawdziwość/fałszywość pozostałych, podstawowych spójników implikacyjnych:
1.
Implikacja prosta p|=>q:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(1)=1*0=0
2.
Implikacja odwrotna p|~>q:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(1)*1=0*1=0
4.
Chaos p|~~>q:
A1B1: p|~~>q = ~(A1: p=>q)*~(B1: p~>q) = ~(1)*~(1)=0*0=0
c.n.d.

IV
Założenie p|~~>q

Załóżmy że zdanie warunkowe „Jeśli p to q” jest częścią chaosu p|~~>q
Wtedy mamy:
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
Stąd:
A1B1: p|~~>q = ~(A1: p=>q)*~(B1: p~>q)=~(0)*~(0)=1*1=1

Badamy prawdziwość/fałszywość pozostałych, podstawowych spójników implikacyjnych:
1.
Implikacja prosta p|=>q:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=0*~(0)=0*1=0
2.
Implikacja odwrotna p|~>q:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(0)*0=1*0=0
3.
Równoważność p<=>q:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) = 0*0=0
ok
c.n.d.

Rozpatrzyliśmy wszystkie możliwe przypadki I, II, III i IV pozytywnie, co kończy dowód prawa Puchacza.

2.11 Algorytm Puchacza
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p
      ##        ##           ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Uwaga:
Na mocy praw Sowy prawdziwość podstawowego spójnika implikacyjnego p?q definiowanego kolumną A1B1 (pytanie o p) wymusza prawdziwość odpowiedniego operatora implikacyjnego p|?q definiowanego dwoma kolumnami A1B1 (pytanie o p) i A2B2 (pytanie o ~p).

Prawo Kłapouchego:
Domyślny punkt odniesienia dla zdań warunkowych „Jeśli p to q”:
W zapisie aktualnym zdań warunkowych (w przykładach) po „Jeśli…” mamy zdefiniowaną przyczynę p zaś po „to..” mamy zdefiniowany skutek q z pominięciem przeczeń.
Prawo Kłapouchego determinuje wspólny dla wszystkich ludzi punktu odniesienia zawarty wyłącznie w kolumnach A1B1 oraz A2B2, dający odpowiedź na pytanie o p (A1B1) oraz o ~p (A2B2).

Algorytm Puchacza to przyporządkowania dowolnego zdania warunkowego "Jeśli p to q" (także fałszywego = fałszywy kontrprzykład) do określonego operatora implikacyjnego.

Algorytm Puchacza:
1.
W zdaniu warunkowym "Jeśli p to q" przeznaczonym do analizy lokalizujemy p i q z pominięciem przeczeń, zgodnie z prawem Kłapouchego bez analizy czy zdanie w oryginale jest prawdziwe/fałszywe.
Prawo Kłapouchego lokalizuje nas w kolumnie A1B1, gdzie mamy brak zaprzeczonego poprzednika p.
Prawo Kłapouchego jest tożsame z otwarciem drzwiczek pudełka z kotem Schrödingera (pkt. 5.4.1)
2.
Poprzednik p i następnik q muszą spełniać definicję wspólnej dziedziny D zarówno dla p jak i dla q
Definicja dziedziny D dla p:
p+~p =D =1
p*~p=[] =0
Definicja tej samej dziedziny D dla q:
q+~q =D =1
q*~q =[] =0
3.
Zbiory/zdarzenia p, q, ~p, ~q muszą być niepuste, bowiem z definicji nie możemy operować na zbiorach/zdarzeniach pustych (pkt 12.2)
4.
Zdania warunkowe "Jeśli p to q" które nie spełniają punktów 1,2,3 są matematycznie fałszywe.

5.
Prawo Puchacza:
Dowolne zdanie warunkowe "Jeśli p to q" należy do jednego z 5 rozłącznych operatorów implikacyjnych p|?q wtedy i tylko wtedy gdy spełnione są warunki 1, 2 i 3 algorytmu Puchacza.
Rozłączne operatory implikacyjne to:
a) p||=>q - operator implikacji prostej (2.12.1)
b) p||~>q - operator implikacji odwrotnej (2.13.1)
c) p|<=>q - operator równoważności (2.14.1)
d) p||~~>q - operator chaosu (2.15.1)
e) p|$q - operator "albo"(|$) (7.2.1)
6.
Korzystając z praw algebry Kubusia wyznaczamy prawdziwość/fałszywość warunku wystarczającego A1: p=>q dla niezanegowanego p:
A1: p=>q =?
7.
Dla tych samych parametrów p i q wyznaczamy prawdziwość/fałszywość warunku koniecznego B1: p~>q dla niezanegowanego p:
B1: p~>q =?
W punktach 6 i 7 p i q muszą być wszędzie tymi samymi p i q inaczej błąd postawienia

Rozstrzygnięcia 6 i 7 możemy badać w odwrotnej kolejności, matematycznie to bez znaczenia.
Rozwiązanie kluczowych punktów 6 i 7 jednoznacznie definiuje nam spójnik implikacyjny p?q definiowany kolumną A1B1, a tym samym (na mocy praw Sowy) operator implikacyjny p|?q do którego należy badane zdanie.

2.11.1 Przykłady zdań niespełniających algorytmu Puchacza

Zdania warunkowe "Jeśli p to q" które nie spełniają punktów 1,2,3 algorytmu Puchacza są matematycznie fałszywe.

Ad. 1
W punkcie 1 chodzi o to, że jeśli przystępujemy do analizy matematycznej zdania "Jeśli p to q" to musimy zastosować prawo Kłapouchego, inaczej dostaniemy nietrywialny błąd podstawienia ### (pkt. 2.7.4)

Ad. 2
A1.
Jeśli liczba jest podzielna przez 2 to trójkąt może być prostokątny
P2~~>TP =0
Brak wspólnej dziedziny.
Stąd mamy:
Zdanie A1 jest fałszywe na mocy punktu 2 algorytmu Puchacza.

Ad. 3
Definicja zbioru pustego [] (pkt.12.2):
Zbiór pusty [] to zbiór zawierający zero pojęć zrozumiałych dla człowieka.

B1
Jeśli 2+2=5 to 2+2=4
Zdanie tożsame (wyjaśnienie w pkt.12.2.1):
B1
Jeśli zbiór pusty [] to liczba 4
[]~~>[4] = []*[4] =[] =0 - twardy fałsz, bo zbiór pusty [] i jednoelementowy zbiór [4] są rozłączne
Stąd mamy:
Zdanie B1 jest fałszywe na mocy punktu 3 algorytmu Puchacza.

Wyjątek:
C1.
Jeśli zbiór pusty [] to zbiór pusty []
[]=>[] =1
Bo każdy zbiór jest podzbiorem => siebie samego, także zbiór pusty []
Wyjaśnienie w punkcie 12.2.1 w części głównej algebry Kubusia.

Rozważmy zdanie:
D1.
Jeśli 2+2=5 to jestem papieżem
p=[2+2=5] =[] =0 - twarde zero
q=[jestem papieżem] =[] =0 - twarde zero
Stąd zapis formalny:
p=>q = []=>[] =0
Z punktu widzenia algorytmu Puchacza zdanie D1 jest fałszem bo nie jest tu spełniony punkt 3 algorytmu Puchacza.
Oczywiście z innego punktu odniesienia, z punktu odniesienia ogólnej teorii zbiorów (pkt. 12.2.1) zdanie D1 będzie prawdziwe, czego dowód mamy w zapisie C1
W matematyce nie ma w tym nic dziwnego - patrz prawo Kameleona (pkt. 2.16.1)

2.11.2 Przypadek szczególny prawdziwości zdań warunkowych „Jeśli p to q”

Przypadek szczególny zdań warunkowych „Jeśli p to q” to zdania typu:
ZS.
Jeśli (p+~p) to (q+~q)
Gdzie dla p i q spełniona jest definicja wspólnej dziedziny D opisana w punkcie 2.
Stąd mamy:
(p+~p) => (q+~q) =1
Oczywistym jest że:
(p=1)=>(q=1) =1 - zdanie prawdziwe, ale nie podlegające pod algebrę Kubusia.
Dlaczego zdanie szczególne ZS nie podlega pod algebrę Kubusia mimo że jest prawdziwe?
Powodem jest tu brak spełnienia punktu 3 algorytmu Puchacza.
Zauważmy bowiem że: jeśli poprzednik p jest twardą jedynką:
p+~p=1
to jego negacja będzie twardym zerem:
~(p+~p) = ~p*p=0 - nie jest spełniony punkt 3 algorytmu Puchacza
Identycznie: jeśli następnik q jest twardą jedynką:
q+~q=1
to jego negacja będzie twardym zerem:
~(q+~q) = ~q*q=0 - nie jest spełniony punkt 3.

Zobaczmy na przykładach o jakie zdania tu chodzi.

Przykład 1
A1.
Jeśli dowolna liczba jest podzielna przez 8 (P8) lub nie jest podzielna przez 8 (~P8) to na 100% => jest podzielna przez 3 (P3) lub nie jest podzielna przez 3 (~P3)
(P8+~P8)=>(P3+~P3) =1
Ustalamy wspólną dziedzinę dla poprzednia p i następnika q:
LN=[1,2,3,4,5,6,7,8,9…] - zbiór liczb naturalnych
P8+~P8 =LN
P3+~P3 =LN
Wspólna dziedzina jest spełniona.
cnd

Algorytm doprowadzenia zdania A1 do postaci spełniającej algorytm Puchacza jest trywialny:

Krok 1.
Rozbijamy poprzednik na dwa zdania proste:
1.
Jeśli dowolna liczba jest podzielna przez 8 (P8) to na 100% => jest podzielna przez 3 (P3) lub nie jest podzielna przez 3 (~P3)
P8=>(P3+~P3)=1 =LN - relacja podzbioru => spełniona
lub
2..
Jeśli dowolna liczba nie jest podzielna przez 8 (~P8) to na 100% => jest podzielna przez 3 (P3) lub nie jest podzielna przez 3 (~P3)
~P8=>(P3+~P3)=1 =LN - relacja podzbioru => spełniona

Krok 2.
Rozbijamy następnik na dwa zdania proste:
A.
Jeśli dowolna liczba jest podzielna przez 8 (P8) to może ~~> być podzielna przez 3 (P3)
P8~~>P3 = P8*P3 =1 bo 24
Definicja elementu wspólnego zbiorów ~~>: P8 i P3 jest spełniona
B.
Jeśli dowolna liczba jest podzielna przez 8 (P8) to może ~~> być nie podzielna przez 3 (~P3)
P8~~>~P3 = P8*~P3 =1 bo 8
Definicja elementu wspólnego zbiorów ~~>: P8 i P3 jest spełniona

Badamy teraz co się dzieje po stronie liczb niepodzielnych przez 8 (~P8)?
C.
Jeśli dowolna liczba nie jest podzielna przez 8 (~P8) to może ~~> być podzielna przez 3 (P3)
~P8~~>P3 = ~P8*P3 =1 bo 3
Definicja elementu wspólnego zbiorów ~~>: ~P8 i P3 jest spełniona
D.
Jeśli dowolna liczba nie jest podzielna przez 8 (~P8) to może ~~> nie być podzielna przez 3 (~P3)
~P8~~>~P3 = ~P8*~P3 =1 bo 2
Definicja elementu wspólnego zbiorów ~~>: ~P8 i ~P3 jest spełniona

Wnioski:
1.
Seria zdań A, B, C i D realizuje tu operatora chaosu p||~~>q gdzie o żadnym warunku wystarczającym => nie ma mowy, co pociąga za sobą brak warunku koniecznego ~>
2.
Zauważmy że:
Po sprowadzeniu zdania A1 do postaci serii zdań A, B, C i D dostępna jest analiza tych zdań algorytmem Puchacza.

2.12 Implikacja prosta p|=>q

Definicja implikacji prostej p|=>q:
Implikacja prosta p|=>q to spełniony wyłącznie warunek wystarczający => między tymi samymi punktami i w tym samym kierunku.
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
Stąd:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) = 1*~(0)=1*1=1
Prawą stronę czytamy:
Zajście p jest (=1) wystarczające => dla zajścia q (A1), ale nie jest (=0) konieczne ~> dla zajścia q (B1)

Podstawmy definicję implikacji prostej p|=>q do matematycznych związków warunku wystarczającego => i koniecznego ~> z uwzględnieniem definicji kontrprzykładu, obowiązującego wyłącznie w warunku wystarczającym =>.
Kod:

IP:
Implikacja prosta p|=>q:
A1: p=>q =1 - p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) = 1*~(0)=1*1=1
Matematyczne związki warunku wystarczającego => i koniecznego ~>
w implikacji prostej p|=>q
       A1B1:         A2B2:      |     A3B3:           A4B4:
A:  1: p=>q  =1  = 2:~p~>~q =1 [=] 3: q~>p  =1  =  4:~q=>~p =1
A': 1: p~~>~q=0                [=]                 4:~q~~>p =0
       ##             ##              ##              ##
B:  1: p~>q  =0  = 2:~p=>~q =0 [=] 3: q=>p  =0  =  4:~q~>~p =0
B':                2:~p~~>q =1 [=] 3: q~~>~p=1   
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Prawa Sowy:
Prawdziwość dowolnego zdania serii Ax wymusza prawdziwość pozostałych zdań
Fałszywość dowolnego zdania serii Bx wymusza fałszywość pozostałych zdań

2.12.1 Operator implikacji prostej p||=>q

Definicja operatora implikacji prostej p||=>q:
Operator implikacji prostej p||=>q to układ równań A1B1 i A2B2 dający odpowiedź na pytanie o p (A1B1) i ~p (A2B2).
Kolumna A1B1:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) - co może się wydarzyć jeśli zajdzie p?
Kolumna A2B2:
A2B2: ~p|~>~q = (A2:~p~>~q)*~(B2: ~p=>~q) - co może się wydarzyć jeśli zajdzie ~p?

Matematycznie zachodzi tożsamość logiczna [=]:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) [=] A2B2: ~p|~>~q = (A2:~p~>~q)*~(B2: ~p=>~q)

Dowód na mocy praw Sowy jest oczywisty.

Dowód alternatywny:
Definicja implikacji prostej p|=>q w spójnikach "i"(*) i "lub"(+):
A1B1: p|=>q = ~p*q (pkt. 2.10)
Definicja implikacji odwrotnej p|~>q w spójnikach "i"(*) i "lub"(+):
A2B2: p|~>q = p*~q (pkt. 2.10)
Mamy do udowodnienia tożsamość logiczną [=]:
A1B1: p|=>q [=] A2B2: ~p|~>~q
Rozwijamy prawą stronę definicją |~>:
A2B2: ~p|~>~q = (~p)*~(~q) = ~p*q = A1B1: p|=>q
cnd

A1B1:
Co może się wydarzyć jeśli zajdzie p?

Odpowiedź na to pytanie mamy w kolumnie A1B1:
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) = 1*~(0)=1*1=1
Prawą stronę czytamy:
Zajście p jest (=1) warunkiem wystarczającym => dla zajścia q (A1), ale nie jest (=0) warunkiem koniecznym ~> dla zajścia q (B1)

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A1B1:
A1.
Jeśli zajdzie p to na 100% => zajdzie q
p=>q =1
Zajście p jest (=1) wystarczające => dla zajścia q
Zajście p daje nam (=1) gwarancję matematyczną => zajścia q
Zachodzi tożsamość pojęć:
Warunek wystarczający => = gwarancja matematyczna =>
Innymi słowy:
Zawsze gdy zajdzie p, zajdzie q

Prawdziwy warunek wystarczający A1: p=>q=1 wymusza fałszywy kontrprzykład A1' (i odwrotnie)
A1'.
Jeśli zajdzie p to może ~~> zajść ~q
p~~>~q=p*~q =0
Zdarzenia:
Niemożliwe jest (=0) jednoczesne zajście zdarzeń ~~>: p i ~q
Zbiory:
Nie istnieje (=0) wspólny element zbiorów ~~>: p i ~q
To jest dowód "nie wprost" fałszywości zdania A1' na mocy definicji kontrprzykładu.

… a jeśli zajdzie ~p?
Prawo Kubusia:
A1: p=>q = A2: ~p~>~q
Idziemy do kolumny A2B2.

A2B2:
Co może się wydarzyć jeśli zajdzie ~p?

Odpowiedź na to pytanie mamy w kolumnie A2B2:
A2: ~p~>~q =1 - zajście ~p jest (=1) konieczne ~> dla zajścia ~q
B2: ~p=>~q =0 - zajście ~p nie jest (=0) wystarczające => dla zajścia ~q
A2B2: ~p|~>~q = (A2:~p~>~q)*~(B2: ~p=>~q) = 1*~(0)=1*1=1
Prawą stronę czytamy:
Zajście ~p jest (=1) warunkiem koniecznym ~> dla zajścia ~q (A2), ale nie jest (=0) warunkiem wystarczającym => dla zajścia ~q (B2).

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A2B2:
A2.
Jeśli zajdzie ~p to może ~> zajść ~q
~p~>~q =1
Zajście ~p jest (=1) warunkiem koniecznym ~> dla zajścia ~q
Innymi słowy:
Zajście ~p jest konieczne ~> dla zajścia ~q wtedy i tylko wtedy gdy zajście p jest wystarczające => dla zajścia q
Prawo Kubusia samo nam tu wyskoczyło:
A2: ~p~>~q = A1: p=>q

lub

Fałszywy warunek wystarczający B2: ~p=>~q=0 wymusza prawdziwy kontrprzykład B2' (i odwrotnie)
B2'.
Jeśli zajdzie ~p to może ~~> zajść q
~p~~>q =~p*q =1
Zdarzenia:
Możliwe jest (=1) jednoczesne zajście zdarzeń ~~>: ~p i q
Zbiory:
Istnieje (=1) wspólny element zbiorów ~~>: ~p i q
Na mocy definicji kontrprzykładu fałszywość warunku wystarczającego B2: ~p=>~q =0 wymusza prawdziwość kontrprzykładu B2': ~p~~>q=1 (i odwrotnie).
To jest dowód "nie wprost" prawdziwości zdania B2'

Podsumowanie:
Jak widzimy, istotą operatora implikacji prostej p||=>q jest gwarancja matematyczna => po stronie p (zdanie A1), oraz „rzucanie monetą” w sensie „na dwoje babka wróżyła” po stronie ~p (zdania A2 i B2’) .

Zauważmy że:
a)
Układ równań logicznych jest przemienny, stąd mamy:
Operator implikacji odwrotnej ~p||~>~q to układ równań logicznych:
A2B2: ~p|~>~q = (A2:~p~>~q)*~(B2: ~p=>~q) - co może się wydarzyć jeśli zajdzie ~p?
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) - co może się wydarzyć jeśli zajdzie p?
Doskonale widać, że analiza matematyczna operatora implikacji odwrotnej A2B2: ~p||~>~q w logice ujemnej (bo ~q) będzie identyczna jak operatora implikacji prostej A1B1: p||=>q w logice dodatniej (bo q) z tym, że zaczynamy od kolumny A2B2 kończąc na kolumnie A1B1.
b)
Także kolejność wypowiadanych zdań jest dowolna, tak więc zdania z powyższej analizy A1, A1’, A2, B2’ możemy wypowiadać w sposób losowy - matematycznie to bez znaczenia.

Uwaga:
Przykład implikacji prostej P|=>CH i operatora implikacji prostej P||=>CH znajdziemy w punkcie 3.4 i 3.4.1.

2.13 Implikacja odwrotna p|~>q

Definicja implikacji odwrotnej p|~>q:
Implikacja odwrotna p|~>q to spełniony wyłącznie warunek konieczny ~> między tymi samymi punktami i w tym samym kierunku.
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) = ~(0)*1=1*1=1
Prawą stronę czytamy:
Zajście p jest (=1) konieczne ~> dla zajścia q (B1), ale nie jest (=0) wystarczające => dla zajścia q (A1).

Podstawmy definicję implikacji odwrotnej p|~>q do matematycznych związków warunku wystarczającego => i koniecznego ~> z uwzględnieniem definicji kontrprzykładu, obowiązującego wyłącznie w warunku wystarczającym =>.
Kod:

IO:
Implikacja odwrotna p|~>q:
A1: p=>q =0 - p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - p jest (=1) konieczne ~> dla zajścia q
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) = ~(0)*1=1*1=1
Matematyczne związki warunku wystarczającego => i koniecznego ~>
w implikacji odwrotnej p|~>q
       A1B1:         A2B2:      |     A3B3:           A4B4:
A:  1: p=>q  =0  = 2:~p~>~q =0 [=] 3: q~>p  =0  =  4:~q=>~p =0
A': 1: p~~>~q=1                [=]                 4:~q~~>p =1
       ##             ##              ##              ##
B:  1: p~>q  =1  = 2:~p=>~q =1 [=] 3: q=>p  =1  =  4:~q~>~p =1
B':                2:~p~~>q =0 [=] 3: q~~>~p=0   
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Prawa Sowy:
Prawdziwość dowolnego zdania serii Bx wymusza prawdziwość pozostałych zdań
Fałszywość dowolnego zdania serii Ax wymusza fałszywość pozostałych zdań

2.13.1 Operator implikacji odwrotnej p||~>q

Definicja operatora implikacji odwrotnej p||~>q:
Operator implikacji odwrotnej p||~>q to układ równań A1B1 i A2B2 dający odpowiedź na pytanie o p (A1B1) i ~p (A2B2)
Kolumna A1B1:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) - co może się wydarzyć jeśli zajdzie p?
Kolumna A2B2:
A2B2: ~p|=>~q = ~(A2:~p~>~q)*(B2: ~p=>~q) - co może się wydarzyć jeśli zajdzie ~p?

Matematycznie zachodzi tożsamość logiczna [=]:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) [=] A2B2: ~p|=>~q = ~(A2:~p~>~q)*(B2: ~p=>~q)

Dowód na mocy praw Sowy jest oczywisty.

Dowód alternatywny:
Definicja implikacji odwrotnej p|~>q w spójnikach "i"(*) i "lub"(+):
A1B1: p|~>q = p*~q (pkt. 2.10)
Definicja implikacji prostej p|=>q w spójnikach "i"(*) i "lub"(+):
A2B2: p|=>q = ~p*q (pkt. 2.10)
Mamy do udowodnienia tożsamość logiczną [=]:
A1B1: p|~>q [=] A2B2: ~p|=>~q
Rozwijamy prawą stronę definicją |=>:
A2B2: ~p|=>~q = ~(~p)*(~q) = p*~q = A1B1: p|~>q
cnd

A1B1:
Co może się wydarzyć jeśli zajdzie p?

Odpowiedź na to pytanie mamy w kolumnie A1B1:
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) = ~(0)*1=1*1=1
Prawą stronę czytamy:
Zajście p jest (=1) warunkiem koniecznym ~> dla zajścia q (B1), ale nie jest (=0) warunkiem wystarczającym => dla zajścia q (A1)

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A1B1:
B1.
Jeśli zajdzie p to może ~> zajść zajdzie q
p~>q =1
Zajście p jest konieczne ~> dla zajścia q
Innymi słowy:
Zajście p jest konieczne ~> dla zajścia q wtedy i tylko wtedy gdy zajście ~p jest wystarczające => dla zajścia ~q
Prawo Kubusia samo nam tu wyskoczyło:
B1: p~>q = B2: ~p=>~q

lub

Fałszywy warunek wystarczający A1: p=>q=0 wymusza prawdziwy kontrprzykład A1' (i odwrotnie)
A1'
Jeśli zajdzie p to może ~~> zajść ~q
p~~>~q=p*~q =1
Zdarzenia:
Możliwe jest (=1) jednoczesne zajście zdarzeń ~~>: p i ~q
Zbiory:
Istnieje (=1) wspólny element zbiorów ~~>: p i ~q
Innymi słowy:
Fałszywość warunku wystarczającego A1: p=>q =0 wymusza prawdziwość kontrprzykładu A1' (i odwrotnie). To jest dowód "nie wprost" prawdziwości zdania A1'

.. a jeśli zajdzie ~p?
Prawo Kubusia:
B1: p~>q = B2: ~p=>~q
Idziemy do kolumny A2B2.

A2B2:
Co może się wydarzyć jeśli zajdzie ~p?

Odpowiedź na to pytanie mamy w kolumnie A2B2:
A2: ~p~>~q =0 - zajście ~p nie jest (=0) konieczne ~> dla zajścia ~q
B2: ~p=>~q =1 - zajście ~p jest (=1) wystarczające => dla zajścia ~q
A2B2: ~p|=>~q = ~(A2:~p~>~q)*(B2: ~p=>~q) = ~(0)*1=1*1=1
Prawą stronę czytamy:
Zajście ~p jest (=1) warunkiem wystarczającym => dla zajścia ~q (B2), ale nie jest (=0) warunkiem koniecznym ~> dla zajścia ~q (A2).

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A2B2:
B2
Jeśli zajdzie ~p to na 100% => zajdzie ~q
~p=>~q =1
Zajście ~p jest (=1) warunkiem wystarczającym => dla zajścia ~q
Zajście ~p daje nam (=1) gwarancję matematyczną => zajścia ~q
Zachodzi tożsamość pojęć:
Warunek wystarczający => = gwarancja matematyczna =>
Innymi słowy:
Zawsze gdy zajdzie ~p, zajdzie ~q

Prawdziwy warunek wystarczający B2:~p=>~q=1 wymusza fałszywy kontrprzykład B2' (i odwrotnie)
B2'
Jeśli zajdzie ~p to może ~~> zajść q
~p~~>q = ~p*q =0
Zdarzenia:
Niemożliwe jest (=0) jednoczesne zajście zdarzeń ~~>: ~p i q
Zbiory:
Nie istnieje (=0) wspólny element zbiorów ~~>: ~p i q
To jest dowód "nie wprost" fałszywości zdania B2' na mocy definicji kontrprzykładu.

Podsumowanie:
Jak widzimy, istotą operatora implikacji odwrotnej p||~>q jest „rzucanie monetą” w sensie „na dwoje babka wróżyła” po stronie p (zdania B1 i A1’), oraz gwarancja matematyczna => po stronie ~p (zdanie B2)

Zauważmy że:
a)
Układ równań logicznych jest przemienny, stąd mamy:
Operator implikacji prostej ~p||=>~q to układ równań logicznych:
A2B2: ~p|=>~q = ~(A2:~p~>~q)*(B2: ~p=>~q) - co może się wydarzyć jeśli zajdzie ~p?
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) - co może się wydarzyć jeśli zajdzie p?
Doskonale widać, że analiza matematyczna operatora implikacji prostej A2B2: ~p||=>~q w logice ujemnej (bo ~q) będzie identyczna jak operatora implikacji odwrotnej A1B1: p||~>q w logice dodatniej (bo q) z tym, że zaczynamy od kolumny A2B2 kończąc na kolumnie A1B1.
b)
Także kolejność wypowiadanych zdań jest dowolna, tak więc zdania z powyższej analizy B1, A1’, B2, B2’ możemy wypowiadać w sposób losowy - matematycznie to bez znaczenia.

Uwaga:
Przykład implikacji odwrotnej CH|~>P i operatora implikacji odwrotnej CH||~>P znajdziemy w punkcie 4.4 i 4.4.1

2.14 Równoważność p<=>q

Definicja równoważności p<=>q:
Równoważność p<=>q to zachodzenie zarówno warunku wystarczającego =>, jak i koniecznego ~> między tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) = 1*1=1
Lewą stronę czytamy:
Zajdzie p wtedy i tylko wtedy gdy zajdzie q
Prawą stronę czytamy:
Zajście p jest warunkiem koniecznym ~> (B1) i wystarczającym => (A1) dla zajścia q
Innymi słowy:
Do tego aby zaszło q potrzeba ~> (B1) i wystarcza => aby zaszło p

Prawo Irbisa:
Każda równoważność prawdziwa p<=>q definiuje tożsamość zdarzeń/zbiorów p=q (i odwrotnie)
Dowód (pkt. 2.9)

Tabela prawdy równoważności p<=>q z uwzględnieniem prawa Irbisa oraz definicji kontrprzykładu, obowiązującego wyłącznie w warunku wystarczającym =>
Kod:

TR
Tabela prawdy równoważności p<=>q z uwzględnieniem prawa Irbisa
Matematyczne związki warunku wystarczającego => i koniecznego ~>
w równoważności p<=>q
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy definicję równoważności A1B1: p<=>q w równaniu logicznym:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1 =1
       A1B1:         A2B2:      |     A3B3:           A4B4:
A:  1: p=>q  =1  = 2:~p~>~q =1 [=] 3: q~>p  =1  =  4:~q=>~p =1
A': 1: p~~>~q=0                [=]                 4:~q~~>p =0
       ##             ##              ##              ##
B:  1: p~>q  =1  = 2:~p=>~q =1 [=] 3: q=>p  =1  =  4:~q~>~p =1
B':                2:~p~~>q =0 [=] 3: q~~>~p=0   
-----------------------------------------------------------------------
Równoważność <=> definiuje:     |     Równoważność <=> definiuje:
AB: 1: p<=>q=1 = 2:~p<=>~q=1   [=] 3: q<=>p=1   =  4:~q<=>~p=1
tożsamość zdarzeń/zbiorów:      |     tożsamość zdarzeń/zbiorów:
AB: 1: p=q     # 2:~p=~q        |  3: q=p       #  4:~q=~p
Gdzie:
# - różne w znaczeniu iż jedna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia
"=",[=],<=> - tożsame znaczki tożsamości logicznej

Prawa Sowy:
Prawdziwość dowolnego zdania serii Ax wymusza prawdziwość pozostałych zdań
Prawdziwość dowolnego zdania serii Bx wymusza prawdziwość pozostałych zdań

2.14.1 Operator równoważności p|<=>q

Definicja operatora równoważności p|<=>q:
Operator równoważności p|<=>q to układ równań A1B1 i A2B2 dający odpowiedź na pytanie o p (A1B1) i ~p (A2B2).
Kolumna A1B1:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) - co może się wydarzyć jeśli zajdzie p?
Kolumna A2B2:
A2B2: ~p<=>~q = (A2:~p~>~q)*(B2: ~p=>~q) - co może się wydarzyć jeśli zajdzie ~p?

Matematycznie zachodzi tożsamość logiczna [=]:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) [=] A2B2: ~p<=>~q = (A2:~p~>~q)*(B2: ~p=>~q)

Dowód na mocy praw Sowy jest oczywisty

Dowód alternatywny:
Definicja równoważności p<=>q w spójnikach "i"(*) i "lub"(+):
A1B1: p<=>q = p*q+~p*~q (pkt. 2.10)
Mamy do udowodnienia tożsamość logiczną [=]:
A1B1: p<=>q [=] A2B2: ~p<=>~q
Rozwijamy prawą stronę definicją <=>:
A2B2: ~p<=>~q = (~p)*(~q) + ~(~p)*~(~q)= ~p*~q + p*q = p*q+~p*~q = A1B1: p<=>q
cnd

A1B1:
Co może się wydarzyć jeśli zajdzie p?

Odpowiedź na to pytanie mamy w kolumnie A1B1:
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1=1
Czytamy:
Równoważność p<=>q w logice dodatniej (bo q) jest spełniona (=1) wtedy i tylko wtedy gdy
zajście p jest (=1) konieczne ~> (B1) i wystarczające => (A1) dla zajścia q

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A1B1:
A1.
Jeśli zajdzie p to na 100% => zajdzie q
p=>q =1
Zajście p jest (=1) wystarczające => dla zajścia q
Zajście p daje nam (=1) gwarancję matematyczną => zajścia q
Zachodzi tożsamość pojęć:
Warunek wystarczający => = gwarancja matematyczna => = na 100% => etc
Innymi słowy:
Zawsze gdy zajdzie p, zajdzie q

Prawdziwy warunek wystarczający A1: p=>q=1 wymusza fałszywy kontrprzykład A1' (i odwrotnie)
A1'.
Jeśli zajdzie p to może ~~> zajść ~q
p~~>~q=p*~q =0
Zdarzenia:
Niemożliwe jest (=0) jednoczesne zajście zdarzeń ~~>: p i ~q
Zbiory:
Nie istnieje (=0) wspólny element zbiorów ~~>: p i ~q
To jest dowód "nie wprost" fałszywości zdania A1' na mocy definicji kontrprzykładu.

… a jeśli zajdzie ~p?
Idziemy do kolumny A2B2.

A2B2:
Co może się wydarzyć jeśli zajdzie ~p?

Odpowiedź na to pytanie mamy w kolumnie A2B2:
A2: ~p~>~q =1 - zajście ~p jest konieczne ~> dla zajścia ~q
B2: ~p=>~q =1 - zajście ~p jest wystarczające => dla zajścia ~q
A2B2: ~p<=>~q = (A2:~p~>~q)*(B2: ~p=>~q) =1*1=1
Czytamy:
Równoważność ~p<=>~q w logice ujemnej (bo ~q) jest spełniona (=1) wtedy i tylko wtedy gdy
zajście ~p jest (=1) konieczne ~> (A2) i wystarczające => (B2) dla zajścia ~q

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A2B2:
B2.
Jeśli zajdzie ~p to na 100% => zajdzie ~q
~p=>~q =1
Zajście ~p jest (=1) wystarczające => dla zajścia ~q

Prawdziwy warunek wystarczający B2: ~p=>~q=1 wymusza fałszywy kontrprzykład B2' (i odwrotnie)
B2'.
Jeśli zajdzie ~p to może ~~> zajść q
~p~~>q=~p*q =0
Zdarzenia:
Niemożliwe jest (=0) jednoczesne zajście zdarzeń ~~>: ~p i q
Zbiory:
Nie istnieje (=0) wspólny element zbiorów ~~>: ~p i q
To jest dowód "nie wprost" fałszywości zdania B2' na mocy definicji kontrprzykładu.

Podsumowanie:
Jak widzimy, istotą operatora równoważności p|<=>q jest gwarancja matematyczna => po stronie p (zdanie A1), jak również gwarancja matematyczna po stronie ~p (zdanie B2)

Zauważmy że:
a)
Układ równań logicznych jest przemienny, stąd mamy:
Operator równoważności ~p|<=>~q to układ równań logicznych:
A2B2: ~p<=>~q = (A2:~p~>~q)*(B2: ~p=>~q) - co się stanie jak zajdzie ~p?
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) - co się stanie jak zajdzie p?
Doskonale widać, że analiza matematyczna operatora równoważności A2B2: ~p|<=>~q w logice ujemnej (bo ~q) będzie identyczna jak operatora równoważności A1B1: p|<=>q w logice dodatniej (bo q) z tym, że zaczynamy od kolumny A2B2 kończąc na kolumnie A1B1.
b)
Także kolejność wypowiadanych zdań jest dowolna, tak więc zdania z powyższej analizy A1, A1’, B2, B2’ możemy wypowiadać w sposób losowy - matematycznie to bez znaczenia.

Uwaga:
Przykład równoważności A<=>S i operatora równoważności A|<=>S znajdziemy w punkcie 6.6 i 6.6.1

2.15 Chaos p|~~>q

Definicja chaosu p|~~>q:
Chaos p|~~>q to brak spełnienia zarówno warunku wystarczającego => jak i koniecznego ~> między tymi samym punktami i w tym samym kierunku
A1: p=>q =0 - p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =0 - p nie jest (=0) konieczne ~> dla zajścia q
Stąd:
A1B1: p|~~>q = ~(A1: p=>q)*~(B1: p~>q) = ~(0)*~(0)=1*1=1
Prawą stronę czytamy:
Zajście p nie jest (=0) konieczne ~> dla zajścia q (B1), jak również nie jest (=0) wystarczające => dla zajścia q (A1).

Podstawiając do matematycznych związków warunku wystarczającego => i koniecznego ~> mamy:
Kod:

CH
Tabela prawdy chaosu p|~~>q
Kolumna A1B1 to punkt odniesienia:
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla q
A1B1: p|~~>q=~(A1: p=>q)*~(B1: p~>q)=~(0)*~(0)=1*1=1
       A1B1:         A2B2:        |     A3B3:         A4B4:
A:  1: p=>q  =0 = 2:~p~>~q =0    [=] 3: q~>p  =0 = 4:~q=>~p =0
A’: 1: p~~>~q=1 =                [=]             = 4:~q~~>p =1
A”: 1: p~~>q =1                  [=]               4:~q~~>~p=1
       ##            ##           |     ##            ##
B:  1: p~>q  =0 = 2:~p=>~q =0    [=] 3: q=>p  =0 = 4:~q~>~p =0
B’:             = 2:~p~~>q =1    [=] 3: q~~>~p=1
B”:               2:~p~~>~q=1    [=] 3: q~~>p =1
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Komentarz:
Kolumna A1B1:
Fałszywy warunek wystarczający:
A1: p=>q=0
wymusza prawdziwość kontrprzykładu:
A1’: p~~>~q=1
Dodatkowo musi być:
A1’’: p~~>q =p*q =1
Dowód „nie wprost”.
Załóżmy, że zachodzi:
A1’’: p~~>q=p*q=0 - niemożliwe jest jednoczesne zajście zdarzeń p i q
Wtedy, na mocy definicji kontrprzykładu prawdziwy jest warunek wystarczający =>:
A1’’’: p=>~q=1
co jest sprzeczne z definicją chaosu p|~~>q gdzie o żadnym warunku wystarczającym => mowy być nie może.
cnd

Identycznie mamy w kolumnie A2B2:
Fałszywy warunek wystarczający:
B2: ~p=>~q=0
wymusza prawdziwość kontrprzykładu:
B2’: ~p~~>q = ~p*q =1 - możliwe jest (=1) jednoczesne zajście zdarzeń ~p i q
Dodatkowo musi być:
B2’’: ~p~~>~q =~p*~q=1
Dowód „nie wprost”
Załóżmy, że zachodzi:
B2’’: ~p~~>~q=~p*~q=0 - niemożliwe jest jednoczesne zajście zdarzeń ~p i ~q
Wtedy, na mocy definicji kontrprzykładu prawdziwy jest warunek wystarczający =>:
B2’’’: ~p=>q=1
co jest sprzeczne z definicją chaosu p|~~>q gdzie o żadnym warunku wystarczającym => mowy być nie może.
cnd

2.15.1 Operator chaosu p||~~>q

Definicja operatora chaosu p||~~>q
Operator chaosu p||~~>q to układ równań logicznych A1B1 i A2B2 dający odpowiedź na pytania o p i ~p:
A1B1: p|~~>q =~(A1: p=> q)*~(B1: p~>q) - co się stanie jeśli zajdzie p?
A2B2:~p|~~>~q =~(A2:~p~>~q)*~(B2:~p=>~q)- co się stanie jeśli zajdzie ~p?

A1B1:
Co się stanie jeśli zajdzie p (p=1)?


Odpowiedź mamy w kolumnie A1B1:
A1”: p~~>q = p*q =1 - możliwe jest (=1) jednoczesne zajście zdarzeń p i q
A1’: p~~>~q = p*~q =1 - możliwe jest (=1) jednoczesne zajście zdarzeń p i ~q
Innymi słowy:
Jeśli zajdzie p (p=1) to mamy najzwyklejsze „rzucanie monetą” w sensie „na dwoje babka wróżyła” - mówią o tym zdania A1” i A1’

Kolumna A1B1:
Analiza w zdaniach warunkowych „Jeśli p to q” dla spełnionego p (p=1):
A1’’.
Jeśli zajdzie p to może ~~> zajść q
p~~>q = p*q =1
Zdarzenia:
Możliwe jest (=1) jednoczesne zajście zdarzeń ~~> p i q
Zbiory:
Istnieje (=1) wspólny element ~~> zbiorów p i q

LUB

A1’.
Jeśli zajdzie p to może ~~> zajść ~q
p~~>~q = p*~q =1
Zdarzenia:
Możliwe jest (=1) jednoczesne zajście zdarzeń ~~> p i ~q
Zbiory:
Istnieje (=1) wspólny element ~~> zbiorów p i ~q

A2B2:
Co się stanie jeśli zajdzie ~p (~p=1)?


Odpowiedź mamy w kolumnie A2B2:
B2”: ~p~~>~q = ~p*~q =1 - możliwe jest (=1) jednoczesne zajście zdarzeń ~p i ~q
B2’: ~p~~>q = ~p*q =1 - możliwe jest (=1) jednoczesne zajście zdarzeń ~p i q
Innymi słowy:
Jeśli zajdzie ~p (~p=1) to mamy najzwyklejsze „rzucanie monetą” w sensie „na dwoje babka wróżyła” - mówią o tym zdania B2” i B2’

Kolumna A2B2:
Analiza w zdaniach warunkowych „Jeśli p to q” dla niespełnionego p (~p=1):
B2’’.
Jeśli zajdzie ~p to może ~~> zajść ~q
~p~~>~q = ~p*~q =1
Zdarzenia:
Możliwe jest (=1) jednoczesne zajście zdarzeń ~~> ~p i ~q
Zbiory:
Istnieje (=1) wspólny element ~~> zbiorów ~p i ~q

LUB

B2’.
Jeśli zajdzie ~p to może ~~> zajść q
~p~~>q = ~p*q =1
Zdarzenia:
Możliwe jest (=1) jednoczesne zajście zdarzeń ~~> ~p i q
Zbiory:
Istnieje (=1) wspólny element ~~> zbiorów ~p i q

Podsumowanie:
Doskonale widać, że zarówno po stronie p jak i po stronie ~p mamy tu najzwyklejsze „rzucanie monetą” w sensie „na dwoje babka wróżyła”.
Po stronie p mamy:
Jeśli zajdzie p to może ~~> zajść q (zdanie A1”) lub może ~~> zajść ~q (zdanie A1’)
Po stronie ~p mamy:
Jeśli zajdzie ~p to może ~~> zajść ~q (zdanie B2”) lub może ~~> zajść q (zdanie B2’)

Zauważmy, że kolejność wypowiadania zdań A1", A1', B2", B2' jest bez znaczenia, wszystkie muszą być prawdziwe.

Uwaga:
Przykład chaosu A|~~>S i operatora chaosu A||~~>S znajdziemy w punkcie 7.2 i 7.2.1

2.16 Sztandarowy przykład implikacji prostej P|=>CH

Kod:

T0
      A1B1:     A2B2:
A: 1: p=>q = 2:~p~>~q
      ##        ##
B: 1: p~>q = 2:~p=>~q
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia


Typowe zadanie w algebrze Kubusia brzmi:

Zadanie 1
Zbadaj w skład jakiego operatora implikacyjnego wchodzi zdanie wypowiedziane:
W.
Jeśli jutro będzie padało to będzie pochmurno

Rozwiązanie:
Na mocy prawa Kłapouchego wspólny dla wszystkich ludzi punkt odniesienia to:
p=P (pada)
q=CH (chmury)
Prawo Kłapouchego lokalizuje nas w kolumnie A1B1, gdzie mamy brak zaprzeczonego poprzednika p.

Badamy prawdziwość/fałszywość warunku wystarczającego => A1.
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
P=>CH =1
To samo w zapisie formalnym:
p=>q =1
Padanie (P) jest warunkiem wystarczającym => dla istnienia chmur (CH), bo zawsze gdy pada, są chmury
Innymi słowy:
Jeśli jutro będzie padało to mamy gwarancję matematyczną => istnienia chmur

Zachodzi tożsamość pojęć:
Na 100% => = warunek wystarczający => = gwarancja matematyczna => …
etc

Pozostało nam wybrać dowolne zdanie z linii Bx i udowodnić jego prawdziwość/fałszywość.
Wybieramy zdanie B1 kodowane warunkiem koniecznym ~>.

B1.
Jeśli jutro będzie padało (P) to na 100% ~> będzie pochmurno (CH)
P~>CH=0
To samo w zapisie formalnym:
p~>q =0
Dowód wprost:
Padanie nie jest (=0) warunkiem koniecznym ~> dla istnienia chmur, bo może nie padać, a chmury mogą istnieć.

2.16.1 Prawo Kameleona

Prawo Kameleona:
Dwa zdania brzmiące identycznie z dokładnością do każdej literki i każdego przecinka nie muszą być matematycznie tożsame.

Przykład to zdania A1 i B1 z poprzedniego punktu.
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
P=>CH =1
to samo w zapisie formalnym:
p=>q =1
Padanie jest (=1) warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury

##

B1.
Jeśli jutro będzie padało (P) to na 100% ~> będzie pochmurno (CH)
P~>CH =0
to samo w zapisie formalnym:
p~>q =0
Padanie nie jest (=0) warunkiem koniecznym ~> dla istnienia chmur, bo może nie padać, a chmury mogą istnieć.

Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>

Dowód iż to są zdania różne na mocy definicji:
A1: p=>q = ~p+q ## B1: p~>q =p+~q
Gdzie:
## - różne na mocy definicji

Różność matematyczną ## zdań A1 i B1 rozpoznajmy wyłącznie po znaczkach warunku wystarczającego => i koniecznego ~> wbudowanych w treść zdań.

2.16.2 Operator implikacji prostej P||=>CH

Zdania A1 i B1 są dowodem, iż mamy tu do czynienia z implikacją prostą A1B1: P|=>CH:

Definicja implikacji prostej P|=>CH
Implikacja prosta A1B1: P|=>CH to zachodzenie wyłącznie warunku wystarczającego => między tymi samymi punktami i w tym samym kierunku
A1: P=>CH =1 - padanie (P) jest (=1) wystarczające => dla istnienia chmur (CH)
B1: P~>CH =0 - padanie (P) nie jest (=0) konieczne ~> dla istnienia chmur (CH)
Stąd mamy:
A1B1: P|=>CH = (A1: P=>CH)*~(B1: P~>CH) = 1*~(0)=1*1=1

W tym momencie mamy kompletną tabelę implikacji prostej A1B1: P|=>CH.
Kod:

IP.
Implikacja prosta p|=>q w zapisie formalnym:
A1: p=>q =1 - p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) = 1*(0)=1*1=1
Nasz punkt odniesienia na mocy prawa Kłapouchego:
p=P (pada)
q=CH (chmury)
Implikacja prosta P|=>CH w zapisie aktualnym (nasz przykład):
A1: P=>CH=1 - padanie jest (=1) wystarczające => dla istnienia chmur
B1: P~>CH=0 - padanie nie jest (=0) konieczne ~> dla istnienia chmur
A1B1: P|=>CH = (A1: (P=>CH)*~(B1: P~>CH)=1*~(0)=1*1=1
Matematyczne związki warunku wystarczającego => i koniecznego ~>
w implikacji prostej p|=>q
       A1B1:         A2B2:       |     A3B3:        A4B4:
Zapis formalny:
A:  1: p=>q   =1  = 2:~p~>~q =1 [=] 3: q~>p   =1 =  4:~q=>~p =1
A': 1: p~~>~q =0                [=]                 4:~q~~>p =0
Zapis aktualny (nasz przykład)
p=P, q=CH
A:  1: P=>CH  =1  = 2:~P~>~CH=1 [=] 3: CH~>P  =1 =  4:~CH=>~P=1
A': 1: P~~>~CH=0                [=]                 4:~CH~~>P=0
       ##              ##               ##            ##
Zapis formalny:
B:  1: p~>q  =0   = 2:~p=>~q =0 [=] 3: q=>p   =0 =  4:~q~>~p =0
B':                 2:~p~~>q =1 [=] 3: q~~>~p =1
Zapis aktualny (nasz przykład)
p=P, q=CH
B:  1: P~>CH =0   = 2:~P=>~CH=0 [=] 3: CH=>P  =0 =  4:~CH~>~P=0
B':                 2:~P~~>CH=1 [=] 3: CH~~>~P=1
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Prawo Sowy dla implikacji prostej p|=>q:
Prawdziwość dowolnego zdania serii Ax wymusza prawdziwość wszystkich zdań w linii A
Fałszywość dowolnego zdania serii Bx wymusza fałszywość wszystkich zdań w linii B

Innymi słowy:
Po udowodnieniu iż zdanie warunkowe „Jeśli p to q” jest częścią implikacji prostej A1B1: p|=>q w logice dodatniej (bo q) nic więcej nie musimy udowadniać, bowiem na mocy praw Sowy mamy zdeterminowaną prawdziwość/fałszywość wszelkich zdań warunkowych „Jeśli p to q” widniejących w tabeli IP

Definicja operatora implikacji prostej P||=>CH:
Operator implikacji prostej P||=>CH to układ równań A1B1 i A2B2 dający odpowiedź na pytanie o padanie (P) i nie padanie (~P)
Kolumna A1B1:
A1B1: P|=>CH = (A1: (P=>CH)*~(B1: P~>CH) - co może się wydarzyć jeśli jutro będzie padało (P)?
Kolumna A2B2
A2B2: ~P|~>~CH = (A2: ~P~>~CH)*~(B2: ~P=>~CH) - co może być jeśli jutro nie będzie padało (~P)?

A1B1:
Co może się wydarzyć jeśli jutro będzie padało (P)?

Odpowiedź mamy w kolumnie A1B1:
A1: P=>CH=1 - padanie (P) jest (=1) wystarczające > dla istnienia chmur (CH)
B1: P~>CH =0 - padanie (P) nie jest (=0) konieczne ~> dla istnienia chmur (CH)
A1B1: P|=>CH = (A1: P=>CH)*~(B1: P~>CH) = 1*~(0)=1*1=1
Prawą stronę czytamy:
Padanie jest (=1) warunkiem wystarczającym => dla istnienia chmur (A1: P=>CH=1) , ale nie jest (=0) warunkiem koniecznym ~> dla istnienia chmur (B1: P~>CH=0)

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A1B1:
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
P=>CH =1
To samo w zapisie formalnym:
p=>q =1
Padanie jest (=1) warunkiem wystarczającym => dla istnienia chmur, bo zawsze gdy pada, są chmury

Prawdziwy warunek wystarczający A1: P=>CH=1 wymusza fałszywy kontrprzykład A1' (i odwrotnie)
A1'
Jeśli jutro będzie padało (P) to może ~~> nie być pochmurno (~CH)
P~~>~CH = P*~CH =0
To samo w zapisie formalnym:
p~~>~q = p*~q =0
Dowód wprost:
Niemożliwe jest (=0) zdarzenie ~~>: pada (P) i nie jest pochmurno (~CH)
Dowód "nie wprost":
Na mocy definicji kontrprzykładu prawdziwy warunek wystarczający A1: P=>CH=1 wymusza fałszywość kontrprzykładu A1': P~~>~CH=0 ( i odwrotnie).

… a jeśli jutro nie będzie padało (~P)?
Prawo Kubusia:
A1: P=>CH = A2: ~P~>~CH
Idziemy do kolumny A2B2.

A2B2:
Co może się wydarzyć jeśli jutro nie będzie padało (~P)?

Odpowiedź na to pytanie mamy w kolumnie A2B2:
A2: ~P~>~CH =1 - brak opadów (~P) jest (=1) warunkiem koniecznym ~> dla braku chmur (~CH)
B2: ~P=>~CH =0 - brak opadów (~P) nie jest (=0) warunkiem wystarczającym => braku chmur (~CH)
A2B2: ~P|~>~CH = (A2:~P~>~CH)*~(B2: ~P=>~CH) = 1*~(0)=1*1=1
Prawą stronę czytamy:
Brak opadów jest (=1) warunkiem koniecznym ~> by nie było pochmurno (A1: ~P~>~CH=1), ale nie jest (=0) warunkiem wystarczającym => by nie było pochmurno (B2: ~P=>~CH)=0)

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A2B2:
A2
Jeśli jutro nie będzie padało (~P) to może ~> nie być pochmurno (~CH)
~P~>~CH =1
To samo w zapisie formalnym:
~p~>~q =1
Brak opadów jest warunkiem koniecznym ~> aby nie było pochmurno (~CH) bo jak pada (P) to na 100% => jest pochmurno (CH)
Prawo Kubusia samo nam tu wyskoczyło:
A2: ~P~>~CH = A1: P=>CH =1
To samo w zapisie formalnym:
A2: ~p~>~q = A1: p=>q

lub

B2'.
Jeśli jutro nie będzie padało to może ~~> być pochmurno
~P~~>CH =~P*CH=1
To samo w zapisie formalnym:
~p~~>q = ~p*q =1
Dowód wprost:
Możliwe jest (=1) zdarzenie ~~>: nie pada (~P) i jest pochmurno (CH)
Dowód "nie wprost":
Na mocy definicji kontrprzykładu fałszywość warunku wystarczającego B2: ~P=>~CH=0 wymusza prawdziwość kontrprzykładu B2': ~P~~>CH=1 (i odwrotnie)

Podsumowanie:
Jak widzimy, istotą operatora implikacji prostej P||=>CH jest gwarancja matematyczna => po stronie P (zdanie A1), oraz „rzucanie monetą” w sensie „na dwoje babka wróżyła” po stronie ~P (zdania A2 i B2’) .

2.16.3 Twarde i miękkie zera i jedynki

Definicja twardej jedynki:
Twarda jedynka w logice matematycznej to po prostu warunek wystarczający =>.

Nasz przykład:
A1.
Jeśli jutro będzie padało to na 100% => będzie pochmurno
P=>CH =1
Padanie jest warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury.

Na mocy definicji kontrprzykładu twarda jedynka w zdaniu A1 wymusza twarde zero w zdaniu A1' (i odwrotnie).
A1'
Jeśli jutro będzie padało (P) to może ~~> nie być pochmurno (~CH)
P~~>~CH = P*~CH =0
Dowód wprost:
Niemożliwe jest (=0) zdarzenie ~~>: pada (P) i nie jest pochmurno (~CH)

Definicja miękkiej jedynki:
Miękka jedynka to zdarzenie które może zajść, ale nie musi.

Nasz przykład:
Jeśli jutro nie będzie padało to może ~> nie być pochmurno (zdanie A2), lub może ~~> być pochmurno (zdanie B2'.
Miękka jedynka wymusza miękkie zero i odwrotnie w zależności od tego które zdarzenie zajdzie.

Przykładowo:
Jeśli jutro nie będzie padało to może być prawdziwe zdanie A2 (miękka jedynka) i fałszywe zdanie B2' (miękkie zero)
albo
Jeśli jutro nie będzie padało to może być prawdziwe zdanie B2' (miękka jedynka) i fałszywe zdanie A2 (miękkie zero)

2.17 Tabela prawdy operatora implikacji prostej p||=>q

Zapiszmy w tabeli prawdy powyższą analizę operatora implikacji prostej P||=>CH przechodząc na zapisy formalne (ogólne) poprzez podstawienie.
p=P (pada)
q=CH (chmury)
Tabela prawdy operatora implikacji prostej p||=>q.
Kod:

T1
Tabela prawdy operatora implikacji prostej p||=>q
A1:  p=> q =1 - zajście p jest wystarczające => dla zajścia q
                Twarda jedynka w A1 wymusza twarde zero w A1' (i odwrotnie)
A1': p~~>~q=0 - prawdziwość A1: p=>q wymusza fałszywość kontrprzykładu A1'
                Twarde zero w A1' wymusza twardą jedynkę w A1 (i odwrotnie)
A2: ~p~>~q =1 - bo prawo Kubusia: A1: p=>q = A2: ~p~>~q
                Miękka jedynka w A2 na mocy definicji p||=>q
LUB
B2':~p~~>q =1 - fałszywy B2:~p=>~q=0 wymusza prawdziwość kontrprzykładu B2'
                Miękka jedynka w B2' na mocy definicji p||=>q

Prawo Krokodyla (pkt. 21.2):
W obsłudze zdań warunkowych "Jeśli p to q" przez wszystkie możliwe przeczenia p i q logika matematyczna musi widzieć tą samą ilość twardych zer i twardych jedynek, inaczej jest wewnętrzne sprzeczna.

Jak widzimy, w operatorze implikacji prostej p||=>q mamy jedną twardą jedynkę (A1), jedno twarde zero (A1') oraz dwie miękkie jedynki (A2 i B2') wymuszone definicją tego operatora, co oznacza spełnienie prawa Krokodyla i brak wewnętrznej sprzeczności algebry Kubusia.

2.17.1 Zero-jedynkowa definicja warunku wystarczającego p=>q

Zapiszmy tabelę prawdy operatora implikacji prostej p||=>q w wersji skróconej:
Kod:

T2
Definicja     |Co w logice
symboliczna   |jedynek oznacza
p||=>q        |
A1:  p=> q =1 |( p=1)=> ( q=1)=1
A1': p~~>~q=0 |( p=1)~~>(~q=1)=0
A2: ~p~>~q =1 |(~p=1)~> (~q=1)=1
B2':~p~~>q =1 |(~p=1)~~>( q=1)=1
     a   b  c    1        2    3

Zero-jedynkową definicję warunku wystarczającego p=>q w logice dodatniej (bo q) otrzymamy kodując tabelę T2 z punktem odniesienia ustawionym na warunku wystarczającym =>:
A1: p=>q
W warunku wystarczającym A1: p=>q zmienne p i q są w postaci niezanegowanej.

Tabelę zero-jedynkową warunku wystarczającego A1: p=>q w logice dodatniej (bo q) otrzymamy wtedy i tylko wtedy gdy wszystkie zmienne w tabeli T2_12 sprowadzimy do postaci niezanegowanej.
Umożliwia to II prawo Prosiaczka (pkt. 1.4):
(~p=1)=(p=0)
które możemy stosować wybiórczo w stosunku do dowolnej zmiennej binarnej.
Zróbmy to:
Kod:

T3
Definicja     |Co w logice       |Na mocy II        |Zapis tożsamy
symboliczna   |jedynek oznacza   |prawa Prosiaczka  |tabeli 456
p||=>q        |                  |                  |  p  q  p=> q
A1:  p=> q =1 |( p=1)=> ( q=1)=1 |( p=1)=> ( q=1)=1 |  1=>1   =1
A1': p~~>~q=0 |( p=1)~~>(~q=1)=0 |( p=1)~~>( q=0)=0 |  1=>0   =0
A2: ~p~>~q =1 |(~p=1)~> (~q=1)=1 |( p=0)~> ( q=0)=1 |  0=>0   =1
B2':~p~~>q =1 |(~p=1)~~>( q=1)=1 |( p=0)~~>( q=1)=1 |  0=>1   =1
     a   b  c    1        2    3    4        5    6    7  8    9

Definicja:
Tabelę T3_789 nazywamy definicją warunku wystarczającego => w logice dodatniej (bo q) dla potrzeb rachunku zerojedynkowego.

Interpretacja warunku wystarczającego =>:
T3_789: p=>q - zajście p jest wystarczające => dla zajścia q

Do zapamiętania:
Kod:

Zero-jedynkowa definicja warunku wystarczającego =>
dla potrzeb rachunku zero-jedynkowego
   p  q  Y=(p=>q)=~p+q
A: 1=>1  1
B: 1=>0  0
C: 0=>0  1
D: 0=>1  1
   1  2  3
Do łatwego zapamiętania:
p=>q=0 <=> p=1 i q=0
Inaczej:
p=>q=1
Definicja warunku wystarczającego => w spójniku „lub”(+):
p=>q =~p+q


Ostatnio zmieniony przez rafal3006 dnia Pon 12:35, 16 Wrz 2024, w całości zmieniany 2 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 34685
Przeczytał: 26 tematów

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Pon 10:45, 16 Wrz 2024    Temat postu:

Kwintesencja algebry Kubusia
Część V Algebra Kubusia w bramkach logicznych

Spis treści
11.0 Algebra Kubusia w bramkach logicznych 1
11.1 Negator dwukierunkowy w bramkach logicznych 2
11.2 Operatory logiczne jednoargumentowe w bramkach logicznych 3
11.2.1 Realizacja zdania zawsze prawdziwego ZP w bramkach logicznych 4
11.2.2 Realizacja zdania zawsze fałszywego ZF w bramkach logicznych 4
11.3 Definicja funkcji transmisji Y=p i operatora transmisji Y|=p 5
11.3.1 Realizacja operatora transmisji Y|=p w bramkach logicznych 6
11.4 Definicja funkcji negacji Y=~p i operatora negacji Y|=~p 7
11.4.1 Realizacja operatora negacji Y|=~p w bramkach logicznych 8
11.5 Definicje spójników logicznych w bramkach logicznych 9
11.5.1 Definicja spójnika „i”(*) i operatora „i”(|*) w bramkach logicznych 10
11.5.2 Definicja spójnika „lub”(+) i operatora „lub”(|+) w bramkach logicznych 11
11.6 Spójniki związane z obsługą zdań warunkowych „Jeśli p to q” 12
11.6.1 Definicja warunku wystarczającego => w bramkach logicznych 12
11.6.2 Definicja warunku koniecznego ~> w bramkach logicznych 13
11.7 Definicje spójników implikacyjnych p|?q w logice dodatniej (bo q) 14
11.7.1 Implikacja prosta p|=>q w bramkach logicznych 16
11.7.2 Implikacja odwrotna p|~>q w bramkach logicznych 17
11.7.3 Równoważność p<=>q w bramkach logicznych 18
11.7.4 Spójnik „albo”($) w bramkach logicznych 20
11.7.5 Definicja „chaosu” (|~~>) w bramkach logicznych 23
11.7.6 Zero-jedynkowa interpretacja znaczka różne na mocy definicji ## 24
11.8 Dowód poprawności algebry Kubusia w funkcjach logicznych 25
11.8.1 Prawo Grzechotnika - Armagedon ziemskiego rachunku zero-jedynkowego 27


11.0 Algebra Kubusia w bramkach logicznych

Definicja nowej algebry Boole’a na poziomie znaczków:
Nowa algebra Boole’a to algebra dwuelementowa akceptująca zaledwie pięć znaczków:
1 = prawda
0 = fałsz
„nie”(~) - negacja (zaprzeczenie), słówko „NIE” w języku potocznym
Spójniki logiczne zgodne z językiem potocznym:
„i”(*) - spójnik „i”(*) w języku potocznym
„lub”(+) - spójnik „lub”(+) w języku potocznym

Dlaczego nowa algebra Boole’a?
1.
W algebrze Kubusia zachodzi tożsamość znaczków:
Spójnik „i”(*) z języka potocznego = bramka AND (*) w technice = koniunkcja (*) w matematyce
Spójnik „lub”(+) z języka potocznego = bramka OR(+) w technice = alternatywa (+) w matematyce
Dowód tego faktu na poziomie 5-cio latka znajdziemy w punkcie 1.9 (sterowanie windą).
2.
Stara algebra Boole’a nie zna kluczowych dla logiki matematycznej pojęć: logika dodatnia (bo p) i logika ujemna (bo ~p). Definicję znajdziemy w pkt. 1.1.1
3.
Stara algebra Boole'a jest wewnętrznie sprzeczna na poziomie funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y), co udowodniliśmy w pkt. 1.5.4 i 1.7

11.1 Negator dwukierunkowy w bramkach logicznych

Zero-jedynkowa tabela prawdy:
Zero-jedynkowa tabela prawdy to zapis wszystkich możliwych wartościowań zmiennych binarnych w postaci tabeli zero-jedynkowej.

W szczególnym przypadku symbol w nagłówku kolumny może być stałą binarną gdy w kolumnie są same jedynki albo same zera.
Kod:

DN
Definicja negacji:
   p # ~p
A: 1 #  0
B: 0 #  1
   1    2
Gdzie:
# - różne w znaczeniu iż dowolna strona # jest negacją drugiej strony

Definicja znaczka w logice matematycznej:
Znaczek w logice matematycznej to symbol zdefiniowany odpowiednią tabelą zero-jedynkową

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony
p#~p
Dowodem jest tu definicja negacji DN.

Definicja zmiennej binarnej w logice dodatniej (bo p):
Zmienna binarna p wyrażona jest w logice dodatniej (bo p) wtedy i tylko wtedy gdy nie jest zanegowana.
Inaczej mamy do czynienia ze zmienną binarną w logice ujemnej (bo ~p)

Zauważmy, że w definicji negacji DN symbole p i ~p są zmiennymi binarnymi.
Dowód:
W osi czasu (kolumna A1B1) może zajść przypadek, że zmienna binarna p przyjmie wartość logiczną 1 (A1) albo wartość logiczną 0 (B1).
W osi czasu (kolumna B2A2) może zajść przypadek, że zmienna binarna ~p przyjmie wartość logiczną 1 (B2) albo wartość logiczną 0 (A2)

Stąd mamy:
Definicja osi czasu w logice matematycznej
W dowolnej tabeli zero-jedynkowej oś czasu to zero-jedynkowa zawartość kolumny opisanej symbolem nad tą kolumną.

W logice matematycznej odpowiednikiem układu Kartezjańskiego są wykresy czasowe.
Dowód na przykładzie (strona 5):
Kod:
https://www.ti.com/lit/ds/symlink/sn54ls193-sp.pdf


W technice cyfrowej znaczek różne # o definicji jak wyżej jest odpowiednikiem dwukierunkowego negatora „O”.
Zachodzi tożsamość znaczków: # = O
Kod:

Realizacja dwukierunkowego negatora „O” w bramkach logicznych
              -----
p --x-------->| ~ |o-x--> ~p
    |         -----  |
    |                |
    | p=~(~p) -----  |
    -<-------o| ~ |<-x--- ~p
              -----
Gdzie:
„O” - symbol dwukierunkowego negatora o budowie jak wyżej
„o"(~) - symbole negacji w technice „o” i języku potocznym „~”
--->| - wejście bramki logicznej negatora (~)
|o--> - wyjście bramki logicznej negatora (~)
W świecie rzeczywistym musi tu być negator z otwartym kolektorem (OC)
na przykład typu SN7406. Wyjście OC musi być podparte rezystorem do Vcc.

W świecie rzeczywistym podajemy sygnały cyfrowe {0,1} na wejściu negatora p albo ~p obserwując co jest na jego wyjściu. Wszystko musi być zgodne z definicją DN.

11.2 Operatory logiczne jednoargumentowe w bramkach logicznych

Wyprowadzenie i tabelę wszystkich możliwych operatorów jednoargumentowych znajdziemy w punkcie 1.3

Tabela wszystkich możliwych operatorów jednoargumentowych (1.3.2)
Kod:

TJ
Tabela wszystkich możliwych operatorów jednoargumentowych
Operator transmisji Y|=p
A1:  Y= p         #  B1: ~Y=~p
    ##                   ##
Operator negacji Y=|~p
A2:  Y=~p         #  B2: ~Y= p
    ##                   ##
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
Stąd mamy:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

Doskonale widać, że w tabeli TJ definicje obu znaczków # i ## są perfekcyjnie spełnione.

Linie A3B3 i A4B4 to bezcenne zero-jedynkowe definicje prawa Prosiaczka, czego dowód znajdziemy w punkcie 1.2.
Znaczenie alternatywne:
Linie A3B3 i A4B4 to stałe binarne, wykorzystywane w definiowaniu nowych pojęć (pkt. 20.2)

11.2.1 Realizacja zdania zawsze prawdziwego ZP w bramkach logicznych
Kod:

Linia A3B3:
Realizacja zdania zawsze prawdziwego ZP w bramkach logicznych
            ZP
        ----------
f(x) -->|    1-->|-------> A3: Y=1
        ----------

W algebrze Boole’a pod zmienną binarną p możemy podstawić dowolnie złożone wyrażenie algebry Boole’a f(x) które z definicji również jest zmienną binarną.
Zdanie na wejściu f(x) musi być twardą jedynką Y=1 tzn. bez możliwości ustawienia Y=0.
Przykład:
f(x)=p+~p=1
Pani w przedszkolu:
A3.
Jutro pójdziemy do kina lub nie pójdziemy do kina
Y=K+~K =1
Cokolwiek pani jutro nie zrobi to dotrzyma słowa (Y=1), nie ma tu możliwości ustawienia (Y=0)

Wniosek:
Linia A3B3 jest w praktyce komunikacyjnej człowieka z człowiekiem bezwartościowa.

11.2.2 Realizacja zdania zawsze fałszywego ZF w bramkach logicznych
Kod:

Linia A4B4:
Realizacja zdania zawsze fałszywego ZF w bramkach logicznych
            ZF
        ----------
f(x) -->|    0-->|-------> A4: Y=0
        ----------

W algebrze Boole’a pod zmienną binarną p możemy podstawić dowolnie złożone wyrażenie algebry Boole’a f(x) które z definicji również jest zmienną binarną.
Zdanie na wejściu f(x) musi być twardym zerem Y=0 tzn. bez możliwości ustawienia Y=1.
Przykład:
f(x)=p*~p=0
Pani w przedszkolu:
A4.
Jutro pójdziemy do kina i nie pójdziemy do kina
Y=K*~K =0
W tym przypadku pani zostaje kłamcą (Y=0) z chwilą wypowiedzenia zdania A4
Cokolwiek pani jutro nie zrobi to nie ma szans na dotrzymanie słowa (Y=1).

Wniosek:
Linia A4B4 jest w praktyce komunikacyjnej człowieka z człowiekiem bezwartościowa.

11.3 Definicja funkcji transmisji Y=p i operatora transmisji Y|=p

Definicja transmitera:
Transmiter to bramka logiczna jednowejściowa gdzie na wyjście Y transmitowany jest zawsze niezanegowany sygnał wejściowy p (Y=p)

Realizacja rzeczywista:
SN7407 (Strona 1: Y=p)
Kod:
https://www.ti.com/lit/ds/symlink/sn7407.pdf


Definicja matematyczna:
Funkcja logiczna transmitera Y=p w logice dodatniej (bo Y) to funkcja definiowana tabelą prawdy:
Kod:

FT
Funkcja transmisji Y=p
Wejście |Wyjście
        | A1:
p # ~p  | Y=p
1 #  0  | 1
0 #  1  | 0
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Na wyjściu Y mamy tu zawsze niezanegowany sygnał p (Y=p)

Definicja operatora transmisji Y|=p:
Operator transmisji Y|=p to układ równań logicznych Y=p i ~Y=~p dający odpowiedź na pytanie o Y i ~Y

Zobaczmy to w tabeli zero-jedynkowej:
Kod:

OT
Definicja operatora transmisji: Y|=p
Wejście    |Wyjście
           | A1:   B1:
   p # ~p  | Y=p # ~Y=~p
A: 1 #  0  | 1   #  0
B: 0 #  1  | 0   #  1
   1    2    3      4
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale tu widać że:
A1:
Y=p
co w logice jedynek oznacza:
Y=1 <=> p=1
#
… kiedy zajdzie ~Y?
Negujemy dwustronnie równanie A1.
B1:
~Y=~p
co w logice jedynek oznacza:
~Y=1 <=> ~p=1

11.3.1 Realizacja operatora transmisji Y|=p w bramkach logicznych
Kod:

OT
Definicja operatora transmisji: Y|=p
Wejście    |Wyjście
           | A1:   B1:
   p # ~p  | Y=p # ~Y=~p
A: 1 #  0  | 1   #  0
B: 0 #  1  | 0   #  1
   1    2    3      4
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

W technice cyfrowej produkowane są wyłącznie bramki logiczne z wejściem w logice dodatniej (bo p) oraz wyjściem w logice dodatniej (bo Y).
Kluczowa jest tu dostępna dowolna ilość negatorów dwukierunkowych „O” o fizycznej realizacji opisanej w punkcie 11.1
Kod:

OT
Operator transmisji Y|=p w bramkach logicznych
      Wejście    |      Wyjście
              -------
 p ---x------>|  T  |---x---> A1: Y=p
      |       -------   |
      |                 O = # (negator dwukierunkowy)
      |    ~p -------   |
      x--O--->|  T  |---x---> B1: ~Y=~p
              -------
Gdzie:
T - bramka transmisji, sygnał z wejścia transmitowany jest na wyjście
# - dowolna strona znaczka # jest negacją drugiej strony
„O” - negator dwukierunkowy (pkt. 11.1)

Jak to działa?
1.
Funkcja transmisji A1: Y=p w logice dodatniej (bo Y) realizowana jest tabelą zero-jedynkową AB13.
Na wejściu p podajemy 1 sprawdzając czy na wyjściu A1: Y=p również mamy 1
Na wejściu p podajemy 0 sprawdzając czy na wyjściu A1: Y=p również mamy 0
2.
Funkcja transmisji B1: ~Y=~p w logice ujemnej (bo ~Y) realizowana jest tabelą zero-jedynkową AB24.
Na wejściu ~p podajemy 0 sprawdzając czy na wyjściu B1: ~Y=~p również mamy 0
Na wejściu ~p podajemy 1 sprawdzając czy na wyjściu B1: ~Y=~p również mamy 1

11.4 Definicja funkcji negacji Y=~p i operatora negacji Y|=~p

Definicja negatora:
Negator to bramka logiczna jednowejściowa gdzie na wyjście Y transmitowany jest zawsze zanegowany sygnał wejściowy p (Y=~p)

Realizacja rzeczywista:
SN7406 (strona 2: Y=~p)
Kod:
https://www.ti.com/lit/ds/symlink/sn7406.pdf


Definicja matematyczna:
Funkcja logiczna negatora Y=~p to funkcja definiowana tabelą prawdy:
Kod:

FN
Funkcja negatora Y=~p
Wejście |Wyjście
        | A2:
p # ~p  | Y=~p
1 #  0  | 0
0 #  1  | 1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Na wyjściu Y mamy tu zawsze zanegowany sygnał p (Y=~p)

Definicja operatora negacji Y|=~p:
Operator negacji Y|=~p to układ równań logicznych Y=~p i ~Y=p dający odpowiedź na pytanie o Y i ~Y

Zobaczmy to w tabeli zero-jedynkowej:
Kod:

ON
Definicja operatora negacji: Y|=~p
Wejście    |Wyjście
           | A2:    B2:
   p # ~p  | Y=~p # ~Y=p
A: 1 #  0  | 0    #  1
B: 0 #  1  | 1    #  0
   1    2    3       4
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale tu widać że:
A2:
Y=~p
co w logice jedynek oznacza:
Y=1 <=> ~p=1
#
… kiedy zajdzie ~Y?
Negujemy dwustronnie równanie A2.
B2:
~Y=p
co w logice jedynek oznacza:
~Y=1 <=> p=1

11.4.1 Realizacja operatora negacji Y|=~p w bramkach logicznych
Kod:

ON
Definicja operatora negacji: Y|=~p
Wejście    |Wyjście
           | A2:    B2:
   p # ~p  | Y=~p # ~Y=p
A: 1 #  0  | 0    #  1
B: 0 #  1  | 1    #  0
   1    2    3       4
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

W technice cyfrowej produkowane są wyłącznie bramki logiczne z wejściem w logice dodatniej (bo p) oraz wyjściem w logice dodatniej (bo Y).
Kluczowa jest tu dostępna dowolna ilość negatorów dwukierunkowych „O” o fizycznej realizacji opisanej w punkcie 11.1
Kod:

ON
Operator negacji Y|=~p w bramkach logicznych
      Wejście    |      Wyjście
           ~p -------
 p ---x--O--->|  T  |---x---> A2: Y=~p
      |       -------   |
      |                 O = # (negator dwukierunkowy)
      |       -------   |
      x------>|  T  |---x---> B2: ~Y=p
              -------
Gdzie:
T - bramka transmisji, sygnał z wejścia transmitowany jest na wyjście
# - dowolna strona znaczka # jest negacją drugiej strony
O - negator dwukierunkowy (pkt. 11.1)

Jak to działa?
1.
Funkcja negacji A2: Y=~p w logice dodatniej (bo Y) realizowana jest tabelą zero-jedynkową AB13.
Na wejściu p podajemy 1 sprawdzając czy na wyjściu A2: Y=~p mamy 0
Na wejściu p podajemy 0 sprawdzając czy na wyjściu A2: Y=~p mamy 1
2.
Funkcja negacji B2: ~Y=p w logice ujemnej (bo ~Y) realizowana jest tabelą zero-jedynkową AB24.
Na wejściu ~p podajemy 0 sprawdzając czy na wyjściu B2: ~Y=p mamy 1
Na wejściu ~p podajemy 1 sprawdzając czy na wyjściu B2: ~Y=p mamy 0

11.5 Definicje spójników logicznych w bramkach logicznych

Definicja zmiennej binarnej:
Zmienna binarna to symbol mogący w osi czasu przyjmować tylko i wyłącznie dwie wartości logiczne 1 albo 0.

Matematyczny związek wartości logicznych 1 i 0:
1 = ~0
0 = ~1
(~) - negacja

Definicja funkcji logicznej Y w algebrze Boole’a:
Funkcja logiczna Y w algebrze Boole’a to dowolne wyrażenie algebry Boole’a f(x) przypisane do tej funkcji.

Przykład:
f(x)=~p*~q
Zapis tożsamy:
Y=~p*~q

Prawo negacji funkcji logicznej:
Dowolną funkcję logiczną Y mamy prawo tylko i wyłącznie dwustronnie zanegować:
Y = p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1
Negujemy dwustronnie:
~Y = ~(p+q) = ~p*~q - na mocy prawa De Morgana
stąd:
~Y=~p*~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1

Definicja funkcji logicznej Y dwóch zmiennych binarnych p i q:
Funkcja logiczna Y w logice dodatniej (bo Y) dwóch zmiennych binarnych p i q to cyfrowy układ logiczny dający na wyjściu binarnym Y jednoznaczne odpowiedzi na wszystkie możliwe wymuszenia na wejściach p i q.
Zachodzi tożsamość pojęć:
binarny = dwuelementowy

Wszystkie możliwe wymuszenia binarne (dwuwartościowe) na wejściach p i q dla funkcji logicznej w logice dodatniej (bo Y) to:
Kod:

T1
Wszystkie możliwe wymuszenia binarne na wejściach p i q
dla funkcji logicznej w logice dodatniej (bo Y)
   p  q  Y
A: 1  1  x
B: 1  0  x
C: 0  1  x
D: 0  0  x
Gdzie:
x={0,1}

Z definicji funkcji logicznej Y wynika, że możliwe jest szesnaście i tylko szesnaście różnych na mocy definicji ## funkcji logicznych dwuargumentowych w logice dodatniej (bo Y).
Funkcje te definiujemy tabelą prawdy pokazującą wszystkie możliwe wymuszenia na wejściach p i q oraz wszystkie możliwe, różne na mocy definicji ## odpowiedzi na wyjściu Y (pkt. 1.16).

Każda ze zmiennych binarnych {p, q, Y} może występować w logice dodatniej (bo x) albo w logice ujemnej (bo ~x). Oczywistym jest, że zmienna binarna w logice dodatniej (bo x) wymusza zmienną binarną w logice ujemnej (bo ~x), albo odwrotnie.
Na dowolny układ cyfrowy można zatem spojrzeć w logice dodatniej (bo Y) albo w logice ujemnej (bo ~Y).
Kod:

T2
Wszystkie możliwe wymuszenia binarne na wejściach p i q
dla funkcji logicznej w logice dodatniej (bo Y)
wymuszające wszystkie możliwe stany binarne na wejściach ~p i ~q
dla funkcji logicznej w logice ujemnej (bo ~Y) i odwrotnie.
   p  q  Y  #  ~p ~q  ~Y
A: 1  1  x  #   0  0 ~(x)
B: 1  0  x  #   0  1 ~(x)
C: 0  1  x  #   1  0 ~(x)
D: 0  0  x  #   1  1 ~(x)
Gdzie:
x={0,1}
Y=f(p,q) # ~Y=f(~p,~q)
# - różne w znaczeniu iż dowolna strona znaczka #
    jest negacją drugiej strony


11.5.1 Definicja spójnika „i”(*) i operatora „i”(|*) w bramkach logicznych

1.
Definicja bramki „i”(*):

Realizacja fizyczna (SN7408):
[link widoczny dla zalogowanych]
Matematycznie zachodzi tożsamość:
Bramka AND = bramka „i”(*) = spójnik „i”(*) z języka potocznego
Kod:

Fizyczna realizacja:
        ------------
p ------| “i”(*)   |
        |          |----------> Y=p*q
q ------| SN7408   |
        ------------
Definicja bramki “i”(*):
Y=p*q
To samo w tabeli zero-jedynkowej:
   p  q  Y=p*q
A: 1  1  =1
B: 1  0  =0
C: 0  1  =0
D: 0  0  =0
Y=1<=>p=1 i q=1
inaczej:
Y=0

Definicja operatora “i”(|*):
Operator “i”(|*) to odpowiedź na pytanie o Y i ~Y:
1: Y=p*q
Kiedy zajdzie ~Y?
Negujemy dwustronnie:
2: ~Y=~p+~q
Albo odwrotnie, czyli znając ~Y łatwo wyznaczymy Y
Kod:

To samo w tabeli zero-jedynkowej:
   p  q  Y=p*q ~Y=~(p*q) ~p ~q ~Y=~p+~q
A: 1  1   1      0        0  0   0
B: 1  0   0      1        0  1   1
C: 0  1   0      1        1  0   1
D: 0  0   0      1        1  1   1
   1  2   3      4        5  6   7
Operator „i”(|*) to układ równań logicznych
dający odpowiedź na pytanie o Y i ~Y:
1.
Kiedy zajdzie Y:
Y=p*q
co w logice jedynek oznacza:
Y=1 <=> p=1 i q=1 (patrz: ABCD123)
#
2.
Kiedy zajdzie ~Y:
~Y=~p+~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 lub ~q=1 (patrz: ABCD567)
Gdzie:
# - dowolna strona znaczka różne # jest negacją drugiej strony


11.5.2 Definicja spójnika „lub”(+) i operatora „lub”(|+) w bramkach logicznych

1.
Definicja bramki „lub”(+):

Realizacja fizyczna (SN7432):
[link widoczny dla zalogowanych]
Matematycznie zachodzi tożsamość:
Bramka OR = bramka „lub”(*) = spójnik „lub”(+) z języka potocznego
Kod:

Fizyczna realizacja:
        ------------
p ------| “lub”(+) |
        |          |----------> Y=p+q
q ------| SN7432   |
        ------------
Definicja bramki “lub”(+):
Y=p+q
To samo w tabeli zero-jedynkowej:
   p  q  Y=p+q
A: 1  1   1
B: 1  0   1
C: 0  1   1
D: 0  0   0
Y=1<=>p=1 lub q=1
inaczej:
Y=0

Definicja operatora “lub”(|+):
Operator “lub”(|+) to odpowiedź na pytanie o Y i ~Y:
1: Y=p+q
Kiedy zajdzie ~Y?
Negujemy dwustronnie:
2: ~Y=~p*~q
Albo odwrotnie, czyli znając ~Y łatwo wyznaczymy Y
To samo w tabeli zero-jedynkowej:
Kod:

   p  q  Y=p+q ~Y=~(p+q) ~p ~q ~Y=~p*~q
A: 1  1   1      0        0  0   0
B: 1  0   1      0        0  1   0
C: 0  1   1      0        1  0   0
D: 0  0   0      1        1  1   1
   1  2   3      4        5  6   7
Operator „lub”(|+) to układ równań logicznych
dający odpowiedź na pytanie o Y i ~Y:
1.
Kiedy zajdzie Y:
Y=p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1 (patrz: ABCD123)
#
2.
Kiedy zajdzie ~Y:
~Y=~p*~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1 (patrz: ABCD567)
Gdzie:
# - dowolna strona znaczka różne # jest negacją drugiej strony


11.6 Spójniki związane z obsługą zdań warunkowych „Jeśli p to q”

Algebra Boole’a rozpoznaje wyłącznie spójniki „i”(*) i „lub”(+), tak więc z definicji nie zajmuje się obsługą zdań warunkowych „Jeśli p to q” definiowanych warunkami wystarczającymi => i koniecznymi ~>.
Nie oznacza to jednak, że przy pomocy bramek „i”(*) i „lub”(+) nie da się zbudować definicji zarówno warunku wystarczającego =>, jak i warunku koniecznego ~> co w tym rozdziale udowodnimy.

11.6.1 Definicja warunku wystarczającego => w bramkach logicznych

Definicja warunku wystarczającego => w bramkach logicznych:
Bramka warunku wystarczającego => nie jest produkowana bo to jest banalna bramka „lub”(+) z zanegowanym wejściem p:
p=>q = ~p+q
Realizacja fizyczna:
Kod:

Definicja warunku wystarczającego =>:
p=>q=~p+q
To samo w tabeli zero-jedynkowej:
   p  q  p=>q=~p+q
A: 1  1   1
B: 1  0   0
C: 0  1   1
D: 0  0   1
p=>q=0 <=> p=1 i q=0
inaczej:
p=>q=1

Fizyczna realizacja:
        ------------
p ------|o   =>    |
        |          |----------> Y=(p=>q)=~p+q
q ------|          |
        ------------
Gdzie:
o - symbol negatora (~)
Symbol negatora wstawiony jest do środka bramki „lub”(+)
gdyż jest integralną częścią definicji warunku wystarczającego =>.

Definicja warunku wystarczającego => przy pomocy bramki „lub”(+):
Definicja =>  | Fizyczna realizacja w bramkach logicznych
   p  q  p=>q | ~p  p=>q=~p+q
A: 1  1   1   |  0   1
B: 1  0   0   |  0   0
C: 0  1   1   |  1   1
D: 0  0   1   |  1   1
   1  2   3      4   5


11.6.2 Definicja warunku koniecznego ~> w bramkach logicznych

Definicja warunku koniecznego ~> w bramkach logicznych:
Bramka warunku koniecznego ~> nie jest produkowana bo to jest banalna bramka „lub”(+) z zanegowanym wejściem q:
p~>q = p+~q
Kod:

Definicja warunku koniecznego ~>:
   p  q  p~>q=p+~q
A: 1  1   1
B: 1  0   1
C: 0  1   0
D: 0  0   1
p~>q=0 <=> p=0 i q=1
inaczej:
p~>q=1
 
Fizyczna realizacja:
        ------------
p ------|   ~>     |
        |          |----------> Y=(p~>q)=p+~q
q ------|o         |
        ------------
Gdzie:
o - symbol negatora (~)
Symbol negatora wstawiony jest do środka bramki „lub”(+)
gdyż jest integralną częścią definicji warunku koniecznego ~>.

Definicja warunku koniecznego ~> zrealizowana przy pomocy bramki „lub”(+):
Definicja ~>  |Fizyczna realizacja w bramkach logicznych
   p  q  p~>q | ~q   p~>q=p+~q
A: 1  1   1   |  0    1
B: 1  0   1   |  1    1
C: 0  1   0   |  0    0
D: 0  0   1   |  1    1
   1  2   3      4    5


11.7 Definicje spójników implikacyjnych p|?q w logice dodatniej (bo q)

Przypomnijmy sobie definicje elementarne algebry Kubusia dotyczące zdań warunkowych „Jeśli p to q”

1.
Warunek wystarczający =>:

„Jeśli p to q”
p=>q =1 - wtedy i tylko wtedy gdy zajście p jest (=1) wystarczające => dla zajścia q
inaczej:
p=>q =0

2.
Warunek konieczny ~>:

„Jeśli p to q”
p~>q =1 - wtedy i tylko wtedy gdy zajście p jest (=1) konieczne ~> dla zajścia q
inaczej:
p~>q =0

3.
Zdarzenie możliwe ~~> w zdarzeniach lub element wspólny zbiorów ~~> w zbiorach:

Zdarzenia:
„Jeśli p to q”
p~~>q = p*q =1 - wtedy i tylko wtedy gdy możliwe jest jednoczesne zajście zdarzeń p i q
inaczej:
p~~>q = p*q =0

Zbiory:
„Jeśli p to q”
p~~>q = p*q =1 - wtedy i tylko wtedy gdy istnieje element wspólny zbiorów p i q
inaczej:
p~~>q = p*q =0

Koniec!
Te trzy definicje to matematyczny fundament obsługi wszelkich zdań warunkowych „Jeśli p to q” w algebrze Kubusia. Spójniki „i”(*) i „lub”(+) pełnią w algebrze Kubusia wyłącznie funkcje pomocnicze (przygotowawcze) dla zdań warunkowych „Jeśli p to q” gdzie podejmuje się decyzję o wszelkich rozgałęzieniach logiki (= programu komputerowego).

Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego => w „i”(*) i „lub”(+)
p~>q = p+~q - definicja warunku koniecznego ~> w „i”(*) i „lub”(+)
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Definicja dowodu „nie wprost” w algebrze Kubusia:
Dowód „nie wprost” w algebrze Kubusia to dowód warunku koniecznego ~> lub wystarczającego => (twierdzenie matematyczne „Jeśli p to q”) z wykorzystaniem praw logiki matematycznej (prawa Kubusia, prawa Tygryska, prawa kontrapozycji dla warunku wystarczającego =>, prawa kontrapozycji dla warunku koniecznego) plus definicja kontrprzykładu.

Definicja spójnika implikacyjnego p|?q w logice dodatniej (bo q):
Spójnik implikacyjny p|?q w logice dodatniej (bo q) to kolumna A1B1 w tabeli matematycznych związków warunku wystarczającego => i koniecznego ~> dająca odpowiedź na pytanie o p

W logice matematycznej rozróżniamy pięć podstawowych spójników implikacyjnych dających odpowiedź na pytanie o p.
1.
Implikacja prosta p|=>q:

A1: p=>q =1 zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) = 1*~(0) =1*1 =1
A1B1: Y=p|=>q=~p*q
##
2.
Implikacja odwrotna p|~>q:

A1: p=>q =0 zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) = ~(0)*1 =1*1 =1
A1B1: Y=p|~>q=p*~q
##
3.
Równoważność p<=>q:

A1: p=>q =1 zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1 =1
A1B1: Y=p<=>q=p*q+~p*~q
##
4.
Spójnik „albo”($) p$q:

A1: p=>~q =1 zajście p jest (=1) wystarczające => dla zajścia ~q
B1: p~>~q =1 - zajście p jest (=1) konieczne ~> dla zajścia ~q
A1B1: p$q = (A1: p=>~q)*(B1: p~>~q) = p<=>~q
A1B1: Y=p$q=p*~q+~p*q
##
5.
Chaos p|~~>q:

A1: p=>q =0 zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|~~>q = ~(A1: p=>q)*~(B1: p~>q) = ~(0)*~(0) =1*1 =1
A1B1: Y=1

Gdzie:
## - bramki logiczne różne na mocy definicji
p i q musi być wszędzie tymi samymi p i q, inaczej błąd podstawienia

Definicja znaczka różne na mocy definicji ##:
Funkcje logiczne Y są różne na mocy definicji wtedy i tylko wtedy gdy dla identycznych wymuszeń na wejściach p i q mają różne kolumny wynikowe Y

Doskonale widać, że funkcje logiczne 1-5 spełniają definicję znaczka różne na mocy definicji ##

11.7.1 Implikacja prosta p|=>q w bramkach logicznych

Definicja implikacji prostej p|=>q w warunkach wystarczających => i koniecznych ~>:
Implikacja prosta p|=>q w logice dodatniej (bo q) to zachodzenie wyłącznie warunku wystarczającego => między tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne dla zajścia q
Stąd mamy:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) =1*~(0)=1*1 =1
Prawą stronę czytamy:
Zajście p jest (=1) wystarczające => dla zajścia q (A1) i nie jest (=0) konieczne ~> dla zajścia q (B1)

Definicja warunku wystarczającego => w spójnikach „i”(*) i „lub”(+):
p=>q = ~p+q
##
Definicja warunku koniecznego w spójniach „i”(*) i „lub”(+):
p~>q = p+~q
Gdzie:
## - różne na mocy definicji
Stąd:
Implikacja prosta p|=>q w spójnikach „i”(*) i „lub”(+):
A1B1:
p|=>q=(A1: p=>q)*~(B1: p~>q) =(~p+q)*~(p+~q)= (~p+q)*(~p*q)=~p*~p*q+q*~p*q=~p*q
Do zapamiętania:
p|=>q = ~p*q

Realizacja implikacji prostej p|=>q w bramkach warunku wystarczającego => i koniecznego ~>:
Kod:

A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(0)=1*1 =1

Fizyczna realizacja implikacji prostej p|=>q w bramkach logicznych:
        ------------                   -----------
p ------|o  =>     | Y=(p=>q)=~p+q     |         |
        |          |-------------------|         | Y=
q ------|          |                   | Bramka: | p|=>q=(p=>q)*~(p~>q)
        ------------                   | „i”(*)  |------------------------>
        ------------                   |         | p|=>q=(~p+q)*(~p*q)=~p*q
p ------|   ~>     | Y=(p~>q)=p+~q  ~Y |         |
        |          |---------------o---|         |
q ------|o         |                   |         |
        ------------                   -----------
Gdzie:
o - symbol negatora (~)
Fizyczna realizacja implikacji prostej p|=>q w bramkach logicznych:
p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(0)=1*1=1

Dokładnie to samo w rachunku zero-jedynkowym:
Definicje => i ~>    | Dowód zero-jedynkowy
   p  q  p=>q | p~>q | ~(p~>q) (p|=>q)=(p=>q)*~(p~>q) | ~p  p|=>q=~p*q
A: 1  1   1   |  1   |    0      0                    |  0    0
B: 1  0   0   |  1   |    0      0                    |  0    0
C: 0  1   1   |  0   |    1      1                    |  1    1
D: 0  0   1   |  1   |    0      0                    |  1    0
   1  2   3      4        5      6                       7    8
Doskonale widać zachodzącą tożsamość kolumn zero-jedynkowych:
6: p|=>q = (p=>q)*~(p~>q) [=] 8: p|=>q =~p*q
cnd


11.7.2 Implikacja odwrotna p|~>q w bramkach logicznych

2.
Implikacja odwrotna p|~>q:

Implikacja odwrotna p|~>q w logice dodatniej (bo q) to zachodzenie wyłącznie warunku koniecznego ~> między tymi samymi punktami i w tym samym kierunku
A1: p=>q =0 zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) = ~(0)*1 =1*1 =1
Prawą stronę czytamy:
Zajście p jest (=1) konieczne ~> dla zajścia q (B1) i nie jest (=0) wystarczające => dla zajścia q (A1)

Definicja warunku wystarczającego => w spójnikach „i”(*) i „lub”(+):
p=>q = ~p+q
##
Definicja warunku koniecznego w spójniach „i”(*) i „lub”(+):
p~>q = p+~q
Gdzie:
## - różne na mocy definicji
Stąd:
Implikacja odwrotne p|~>q w spójnikach „i”(*) i „lub”(+):
A1B1:
p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(~p+q)*(p+~q)=(p*~q)*(p+~q)=p*~q*p+p*~q*~q=p*~q
Do zapamiętania:
p|~>q = p*~q

Realizacja implikacji odwrotnej p|~>q w bramkach warunku wystarczającego => i koniecznego ~>:
Kod:

A1B1: p|~>q =~(A1: p=>q)*(B1: p~>q)=~(0)*1=1*1 =1

Fizyczna realizacja implikacji odwrotnej p|~>q w bramkach logicznych:
        ------------                   -----------
p ------|o  =>     | Y=(p=>q)=~p+q  ~Y |         |
        |          |---------------o---|         | Y=
q ------|          |                   | Bramka: | p|~>q=~(p=>q)*(p~>q)
        ------------                   | „i”(*)  |---------------------->
        ------------                   |         | p|~>q=(p*~q)*(p+~q)=p*~q
p ------|   ~>     | Y=(p~>q)=p+~q     |         |
        |          |-------------------|         |
q ------|o         |                   |         |
        ------------                   -----------
Gdzie:
o - symbol negatora (~)
Fizyczna realizacja implikacji odwrotnej p|~>q w bramkach logicznych:
p|~>q =~(A1: p=>q)*(B1: p~>q)=~(0)*1=1*1=1

Dokładnie to samo w rachunku zero-jedynkowym:
Definicje => i ~>    | Dowód zero-jedynkowy
   p  q  p=>q | p~>q | ~(p=>q) (p|~>q)=~(p=>q)*(p~>q) | ~q  p|~>q=p*~q
A: 1  1   1   |  1   |    0      0                    |  0    0
B: 1  0   0   |  1   |    1      1                    |  1    1
C: 0  1   1   |  0   |    0      0                    |  0    0
D: 0  0   1   |  1   |    0      0                    |  1    0
   1  2   3      4        5      6                       7    8
Doskonale widać zachodzącą tożsamość kolumn zero-jedynkowych:
6: p|~>q =~(p=>q)*(p~>q) [=] 8: p|~>q =p*~q
cnd


11.7.3 Równoważność p<=>q w bramkach logicznych

3.
Równoważność p<=>q:

Równoważność p<=>q w logice dodatniej (bo q) to zachodzenie zarówno warunku wystarczającego => jak i koniecznego ~> między tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1 =1
Gdzie:
<=> - spójnik „wtedy i tylko wtedy” z języka potocznego
Lewą stronę czytamy:
Zajdzie p wtedy i tylko wtedy gdy zajdzie q
Prawą stronę czytamy:
Zajście p jest (=1) konieczne ~> (B1) i wystarczające => (A1) dla zajścia q
Innymi słowy:
Do tego by zaszło q jest (=1) potrzebne ~> (B1) i wystarczające => (A1) by zaszło p

Prawo Irbisa (mówiące o tożsamości pojęć/zbiorów):
Dwa pojęcia/zbiory są tożsame p=q wtedy i tylko wtedy gdy znajdują się w relacji równoważności p<=>q
p=q <=> (A1: p=>q)*(B1: p~>q) = p<=>q

Definicja warunku wystarczającego => w spójnikach „i”(*) i „lub”(+):
p=>q = ~p+q
##
Definicja warunku koniecznego w spójniach „i”(*) i „lub”(+):
p~>q = p+~q
Gdzie:
## - różne na mocy definicji
Stąd:
Równoważność p<=>q w spójnikach „i”(*) i „lub”(+):
A1B1:
p<=>q = (A1: p=>q)*(B1: p~>q)=(~p+q)*(p+~q)=~p*p+~p* ~q+q* p+q*~q =p*q+~p*~q
Do zapamiętania:
p<=>q = p*q+~p*~q

Realizacja równoważności p<=>q w bramkach warunku wystarczającego => i koniecznego ~>:
Kod:

A1B1: p<=>q = (A1: p=>q)*(B1: p~>q)=1*1 =1

Fizyczna realizacja równoważności p<=>q w bramkach logicznych:
        ------------                   -----------
p ------|o  =>     | Y=(p=>q)=~p+q     |         |
        |          |-------------------|         | Y=
q ------|          |                   | Bramka: | p<=>q=(p=>q)*(p~>q)
        ------------                   | „i”(*)  |---------------------->
        ------------                   |         | p<=>q=(~p+q)*(p+~q)
p ------|   ~>     | Y=(p~>q)=p+~q     |         | p<=>q=p*q+~p*~q
        |          |-------------------|         |
q ------|o         |                   |         |
        ------------                   -----------
Gdzie:
o - symbol negatora (~)

Fizyczna realizacja równoważności p<=>q w bramkach logicznych:
p<=>q = (A1: p=>q)*(B1: p~>q)=1*1=1

Dokładnie to samo w rachunku zero-jedynkowym:
Definicje => i ~>    | Dowód zero-jedynkowy
   p  q  p=>q | p~>q | p<=>q=(p=>q)*(p~>q) ~p ~q  p*q ~p*~q p<=>q=p*q+~p*~q
A: 1  1   1   |  1   |   1                  0  0   1    0     1
B: 1  0   0   |  1   |   0                  0  1   0    0     0
C: 0  1   1   |  0   |   0                  1  0   0    0     0
D: 0  0   1   |  1   |   1                  1  1   0    1     1
   1  2   3      4       5                  6  7   8    9    10
Doskonale widać zachodzącą tożsamość kolumn zero-jedynkowych:
5: p<=>q = (p=>q)*(p~>q) [=] 10: p<=>q = p*q+~p*~q
cnd


11.7.4 Spójnik „albo”($) w bramkach logicznych

Definicja spójnika „albo”($) p$q w logice dodatniej (bo q):
A1B1:
Spójnik „albo”($) p$q w logice dodatniej (bo q) to jednoczesne zachodzenie zarówno warunku koniecznego ~> jak i wystarczającego => w kierunku od p do ~q
A1: p=>~q =1 - zajście p jest wystarczające => dla zajścia ~q
B1: p~>~q =1 - zajście p jest konieczne ~> dla zajścia ~q
Stąd:
A1B1: p$q = (A1: p=>~q)*(B1: p~>~q) =1*1 =1
Lewą stronę czytamy:
Zajdzie p „albo”($) q
Prawą stronę czytamy:
Zajście p jest konieczne ~> (B1) i wystarczające => (A1) dla zajścia ~q
A1B1: p<=>~q =(A1: p=>~q)*(B1: p~>~q) = p$q
Gdzie:
<=> - spójnik „wtedy i tylko wtedy” z języka potocznego

Prawo Irbisa (mówiące o tożsamości pojęć/zbiorów):
Dwa pojęcia/zbiory są tożsame p=~q wtedy i tylko wtedy gdy znajdują się w relacji równoważności p<=>~q
p=~q <=> (A1: p=>~q)*(B1: p~>~q) = p<=>~q = p$q

Definicja warunku wystarczającego => w spójnikach „i”(*) i „lub”:
p=>q = ~p+q
##
Definicja warunku koniecznego w spójniach „i”(*) i „lub”:
p~>q = p+~q
Gdzie:
## - różne na mocy definicji

Stąd:
Definicja spójnika „albo”($) p$q wyrażona spójnikami „i”(*) i „lub”(+):
p$q=(A1: p=>~q)*(B1: p~>~q)=(~p+~q)*(p+q)=~p*p+~p*q+~q*p+~q*q= p*~q+~p*q
Do zapamiętania:
p$q = p*~q+~p*q

Zapiszmy jeszcze raz definicję spójnika „albo”($) p$q wyrażoną warunkiem wystarczającym => i koniecznym ~>:
A1B1: p$q = (A1: p=>~q)*(B1: p~>~q) =1*1 =1

Lewą stronę czytamy:
Zajdzie p „albo”($) q
A1B1: p$q = (A1: p=>~q)*(B1: p~>~q) =1*1 =1
Przykład:
Dowolny człowiek jest mężczyzną (M) „albo”($) kobietą (K)
A1B1: M$K = (A1: M=>~K)*(B1: M~>~K) =1*1=1

Prawą stronę czytamy:
Zajście p jest konieczne ~> (B1) i wystarczające => (A1) dla zajścia ~q
A1B1: p$q = (A1: p=>~q)*(B1: p~>~q) =1*1 =1
Przykład:
Bycie mężczyzną (M) jest warunkiem koniecznym ~> (B1) i wystarczającym => (A1) aby nie być kobietą (~K)
A1B1: M$K = (A1: M=>~K)*(B1: M~>~K) =1*1=1

Ostatni zapis to znana nam (patrz wyżej) definicja równoważności p<=>~q
A1B1: p$q = (A1: p=>~q)*(B1: p~>~q) = p<=>~q

Ostatni człon czytamy:
Zajdzie p wtedy i tylko wtedy gdy zajdzie ~q
p<=>~q = (A1: p=>~q)*(B1: p~>~q) = p$q

Nasz przykład:
Dowolny człowiek jest mężczyzną (M) wtedy i tylko wtedy gdy nie jest kobietą (~K)
A1B1: M<=>~K = (A1: M=>~K)*(B1: M~>~K) = M$K

Dowód prawdziwości warunku wystarczającego => A1:
A1.
Jeśli dowolny człowiek jest mężczyzną (M) to na 100% => nie jest kobietą (~K)
M=>~K =1
Bycie mężczyzną jest (=1) wystarczające => do tego, by nie być kobietą (~K)
Oczywistość dla każdego 5-cio latka

Dowód prawdziwości warunku koniecznego ~> B1:
B1.
Jeśli dowolny człowiek jest mężczyzną (M) to na 100% ~> nie jest kobietą (~K)
M~>~K =1
Bycie mężczyzną jest (=1) konieczne ~> do tego, by nie być kobietą (~K)
Oczywistość dla każdego 5-cio latka

Zauważmy, że wyskoczyło nam tu prawo Kameleona.

Prawo Kameleona:
Dwa zdania brzmiące identycznie z dokładnością do każdej literki i każdego przecinka nie muszą być matematycznie tożsame

Dowód to zdania A1 i B1:
A1: M=>~K =1 ## B1: M~>~K =1
Gdzie:
## - różne na mocy definicji

Najprostszy dowód „nie wprost” tego faktu:
Zauważmy, że jeśli zapiszemy tu tożsamość logiczną [=]:
A1: M=>~K =1 [=] B1: M~>~K =1
To definicja równoważności A1B1: M<=>~K legnie w gruzach

Definicja tożsamości logicznej [=]:
Prawdziwość dowolnej strony tożsamości logicznej [=] wymusza prawdziwość drugiej strony
Fałszywość dowolnej strony tożsamości logicznej [=] wymusza fałszywość drugiej strony
Tożsame znaczki tożsamości logicznej:
[=], "=", <=> (wtedy i tylko wtedy)

Dowód wprost:
Warunek wystarczający A1: p=>q = ~p+q ## Warunek konieczny B1: p~>q = p+~q
Gdzie:
## - różne na mocy definicji

Definicja bramki „albo”($):
Y= p$q = (A1: p=>~q)*(B1: p~>~q) = p<=>~q
Realizacja fizyczna (SN7486):
[link widoczny dla zalogowanych]
Matematycznie zachodzi tożsamość:
Bramka XOR = bramka „albo”($) = spójnik „albo”($) z języka potocznego

Realizacja spójnika „albo”($) w bramkach warunku wystarczającego => i koniecznego ~>:
Kod:

A1B1: p$q = (A1: p=>~q)*(B1: p~>~q)= p<=>~q

Fizyczna spójnika „albo”($) p$q w bramkach logicznych:
        ------------                   -------------
p ------|o  =>     | Y=(p=>~q)=~p+~q   |           |
     ~q |          |-------------------|           |
q --o---|          |                   | Bramka:   | p$q=(p=>~q)*(p~>~q)
        ------------                   | „i”(*)    |---------------------->
        ------------                   |           | p$q=(p=>~q)*(p~>~q)
p ------|   ~>     | Y=(p~>~q)=p+q     |           | p$q=p*~q+~p*q
     ~q |          |-------------------|           |
q --o---|o         |                   |           |
        ------------                   -------------
Gdzie:
o - symbol negatora (~)
Fizyczna realizacja spójnika „albo”($) w bramkach logicznych:
p$q = (A1: p=>~q)*(B1: p~>~q)=1*1=1

Dokładnie to samo w rachunku zero-jedynkowym:
Definicje => i ~>  | Dowód zero-jedynkowy
                   |        A:    B:
   p  q  p=>q p~>q | ~p ~q  p=>~q p~>~q p$q=A*B  p*~q ~p*q  p$q=p*~q+~p*q
A: 1  1   1    1   |  0  0   0     1     0        0     0    0
B: 1  0   0    1   |  0  1   1     1     1        1     0    1
C: 0  1   1    0   |  1  0   1     1     1        0     1    1
D: 0  0   1    1   |  1  1   1     0     0        0     0    0
   1  2   3    4      5  6   7     8     9       10    11   12
Doskonale widać zachodzącą tożsamość kolumn zero-jedynkowych:
9: p$q = (p=>~q)*(p~>~q) [=] 12: p$q = p*~q+~p*q
cnd

Związek między spójnikiem „albo”($) i spójnikiem równoważności p<=>q to relacja różne na mocy definicji ##
Dowód:
Definicja bramki „albo”($):
Y= p$q = (A1: p=>~q)*(B1: p~>~q) = p<=>~q = p*~q+~p*q
##
Definicja równoważności p<=>q:
Y= (p<=>q) = (A1: p=>q)*(B1: p~>q) = p*q+~p*~q
Gdzie:
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia
## - funkcje logiczne Y są różne na mocy definicji ## bo prawe strony tych funkcji nie są tożsame

11.7.5 Definicja „chaosu” (|~~>) w bramkach logicznych

5
Definicja chaosu p|~~>q w logice dodatniej (bo q):

Chaos p|~~>q w logice dodatniej (bo q) to nie zachodzenie ani warunku koniecznego ~> ani też warunku wystarczającego => między tymi samymi punktami i w tym samym kierunku
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
stąd:
A1B1:
p|~~>q = ~(A1: p=>q)*~(B1: p~>q) =~(0)*~(0) = 1*1 =1
Czytamy:
Definicja chaosu p|~~>q w logice dodatniej (bo q) jest spełniona wtedy i tylko wtedy gdy zajście p nie jest (=0) konieczne ~> dla zajścia q i jednocześnie zajęcie p nie jest (=0) wystarczające => dla zajścia q

Z teorii chaosu (punkt 8.1) wiemy, że kodowania elementem wspólnym zbiorów ~~> w zbiorach, lub zdarzeniem możliwym ~~> w zdarzeniach przez wszystkie możliwe przeczenia p i q muszą dać wszędzie wynikowe jedynki, inaczej gwałcimy definicję kontrprzykładu.
Stąd mamy:
Y = p|~~>q = A: p*q + B: p*~q + C: ~p*q + D: ~p*~q= p*(q+~q)+~p*(q+~q)=p+~p=1
Innymi słowy:
W tabeli prawdy spójnika chaosu p|~~>q przez wszystkie możliwe przeczenia p i q nie ma żadnego warunku wystarczającego =>, co pociąga za sobą brak warunku koniecznego ~>

Fizyczna realizacja chaosu p|~~>q w bramkach „i”(*) i „lub”(+) będzie zatem następująca:
Kod:

Fizyczna realizacja chaosu p|~~>q w bramkach logicznych:
        ----------        ------------
p ------| Bramka | p*q    | Bramka   |
        | „i”(*) |--------| „lub”(+) |
q ------|   A    |        |          |      ------------
        ----------        |          | p    | Bramka   |
        ----------        |  A+B     |------| „lub”(+) |
p ------| Bramka | p*~q   |          |      |          |
     ~q | „i”(*) |--------|          |      |          |
q -o----|   B    |        |          |      |          |
        ----------        ------------      |          | Y= p|~~>q=p+~p=1
                                            | A+B+C+D  |------------------>
     ~p ----------        ------------      |          |
p -o----| Bramka | ~p*q   | Bramka   |      |          |
        | „i”(*) |--------| „lub”(+) |      |          |
q ------|   C    |        |          | ~p   |          |
        ----------        |   C+D    |------|          |
     ~p ----------        |          |      |          |
p -o----| Bramka |~p*~q   |          |      ------------
     ~q | „i”(*) |--------|          |
q -o----|   D    |        |          |
        ----------        ------------

Gdzie:
o - symbol negatora (~)
Dokładnie to samo w rachunku zero-jedynkowym.

Definicje „*” oraz „+” | Dowód zero-jedynkowy dla chaosu p|~~>q:
   p  q ~p ~q  p*q p+q | p*q p*~q ~p*q ~p*~q p*q+p*~q ~p*q+~p*~q p|~~>q
A: 1  1  0  0   1   1  |  1   1     0    0      1         0        1
B: 1  0  0  1   0   1  |  0   1     0    0      1         0        1
C: 0  1  1  0   0   1  |  0   0     1    0      0         1        1
D: 0  0  1  1   0   0  |  0   0     0    1      0         1        1
   1  2  3  4   5   6  |  a   b     c    d      e         f        g
Doskonale widać same jedynki w kolumnie wynikowej p|~~>q, czyli:
Y = p|~~>q = A: p*q + B: p*~q + C: ~p*q + D: ~p*~q= p*(q+~q)+~p*(q+~q)=p+~p=1
cnd


11.7.6 Zero-jedynkowa interpretacja znaczka różne na mocy definicji ##

Rozważmy omówione wyżej definicje znaczków =>, ~>, |=>, |~>, <=> w spójnikach „i”(*) i „lub”(+):
1.
Definicja warunku wystarczającego p=>q w spójnikach „i”(*) i „lub”(+):
Y = p=>q = ~p+q
##
2.
Definicja warunku koniecznego p~>q w spójnikach „i”(*) i „lub”(+):
Y = p~>q = p+~q
##
3.
Definicja implikacji prostej p|=>q w spójnikach „i”(*) i „lub”(+):
Y = p|=>q = ~p*q
##
4.
Definicja implikacji odwrotnej p|~>q w spójnikach „i”(*) i „lub”(+):
Y = p|~>q = p*~q
##
5.
Definicja równoważności p<=>q w spójnikach „i”(*) i „lub”(+):
Y = p<=>q = p*q + ~p*~q

Gdzie:
## - różne na mocy definicji

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne Y w logice dodatniej (bo Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy dla identycznych wymuszeń na wejściach p i q mają różne kolumny wynikowe Y
Kod:

T1
Dowód poprawności znaczka ## w rachunku zero-jedynkowym
              1: Y= p=>q 2: Y= p~>q 3: Y= p|=>q 4: Y= p|~>q 5: Y= p<=>q
   p  q ~p ~q     =~p+ q     = p+~q     =~p* q      = p*~q      =p*q+~p*~q
A: 1  1  0  0    1          1          0           0           1
B: 1  0  0  1    0          1          0           1           0
C: 0  0  1  1    1          1          0           0           1
D: 0  1  1  0    1          0          1           0           0

W tabeli T1 doskonale widać perfekcyjnie spełnioną definicje znaczka różne na mocy definicji ## dla funkcji logicznych Y (1 do 5) w logice dodatniej (bo Y)
cnd

11.8 Dowód poprawności algebry Kubusia w funkcjach logicznych

Zapiszmy utworzone wyżej schematy ideowe spójników logicznych w bramkach logicznych w postaci uproszczonej z uwzględnienie funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y)
Kod:

TA
1.  --------------
p –-| Spójnik    |
    | „i”(*)     |--------------------------o----------------------------->
q –-| SN7408     | 1A: Y=p*q                # 1B: ~Y=~p+~q
    --------------
##
2.  --------------
p –-| Spójnik    |
    | „lub”(+)   |--------------------------o----------------------------->
q –-| SN7432     | 2A: Y= p+q               # 2B: ~Y=~p*~q
    --------------
##
3.  ----------------
p –-|Warunek       |
    |wystarczający |------------------------o----------------------------->
q –-| Y=(p=>q)     |3A: Y=(p=>q)=~p+q       # 3B: ~Y=~(p=>q)= p*~q
    ----------------
##
4.  --------------
p –-|Warunek     |
    |konieczny   |--------------------------o----------------------------->
q –-| Y=(p~>q)   | 4A: Y=(p~>q)= p+~q       # 4B: ~Y=~(p~>q)=~p* q
    --------------
##
5.  --------------
p –-|Implikacja  | Y=(A1: p=>q)*~(B1: p~>q) # ~Y=~((A1: p=>q)*~(B1: p~>q))
    |prosta      |--------------------------o----------------------------->
q –-| Y=(p|=>q)  | 5A: Y=(p|=>q)=~p* q      # 5B: ~Y=~(p|=>q)= p+~q
    --------------
##
6.  --------------
p –-|Implikacja  | Y=~(A1: p=>q)*(B1: p~>q) # ~Y=~(~(A1: p=>q)*(B1: p~>q))
    |odwrotna    |--------------------------o----------------------------->
q –-| Y=(p|~>q)  | 6A: Y=(p|~>q)= p*~q      # 6B: ~Y=~(p|~>q)= ~p+q
    --------------
##
7.  --------------
p –-|Równoważność| Y=(A1: p=>q)*(B1: p~>q)  # ~Y=~((A1: p=>q)*(B1: p~>q))
    |Y=(p<=>q)   |--------------------------o----------------------------->
q –-|            | 7A: Y=(p<=>q)= p*q+~p*~q # 7B: ~Y=~(p<=>q)= p*~q+~p*q
    --------------
##
8.  --------------
p –-| Spójnik    | Y=(A1: p=>~q)*(B1: p~>~q)# ~Y=~((A1: p=>~q)*(B1: p~>~q))
    | „albo”($)  |--------------------------o----------------------------->
q –-| Y=(p$q)    | 8A: Y=(p$q)= p*~q+~p*q   # 8B: ~Y=~(p$q)= p*q+~p*~q
    --------------
##
9.  --------------
p –-| Spójnik    | Y=~(A1: p=>q)*~(B1: p~>q)# ~Y=~(~(A1: p=>q)*~(B1: p~>q))
    | chaosu     |--------------------------o----------------------------->
q –-| Y=(p|~~>q) | 9A: Y=(p|~~>q)=1         # 9B: ~Y=~(p|~~>q)=0
    --------------
Gdzie:
o – symbol negatora (~), tożsamy ze znaczkiem #
# - różne w znaczeniu iż dowolna strona # jest negacją drugiej strony
## - różne na mocy definicji bramek logicznych
p i q muszą być wszędzie tymi samymi p i q, inaczej błąd podstawienia

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ## dla funkcji logicznych:
Dwie funkcje logiczne Y są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest zaprzeczeniem drugiej.

Doskonale widać, że w tabeli TA definicje obu znaczków # i ## są perfekcyjnie spełnione.

Funkcje logiczne w tabeli TA wolno nam dowolnie przestawiać.
Poprzestawiajmy je tak, by wyrażenia z prawej strony funkcji logicznych Y i ~Y były tożsame
Kod:

TB
3A:  Y=(p=>q) =~p+ q        ##  6B: ~Y=~(p|~>q)=~p+ q
4A:  Y=(p~>q) = p+~q        ##  5B: ~Y=~(p|=>q)= p+~q
5A:  Y=(p|=>q)=~p* q        ##  4B: ~Y=~(p|~>q)=~p+ q
6A:  Y=(p|~>q)= p*~q        ##  3B: ~Y=~(p=>q) = p*~q
7A:  Y=(p<=>q)= p* q+~p*~q  ##  8B: ~Y=~(p$q)  = p* q+~p*~q
8A:  Y=(p$q)  = p*~q+~p* q  ##  7B: ~Y=~(p<=>q)= p*~q+~p* q
Gdzie:
## - różne na mocy definicji
p i q muszą być tymi samymi p i q, inaczej błąd podstawienia

Jak widzimy w tabeli TB definicja znaczka różne na mocy definicji ## jest perfekcyjnie spełniona bowiem funkcje łączone znaczkiem ## nie są tożsame, ani żadna z nich nie jest negacją drugiej.
Matematycznie i fizycznie mamy prawo porównywać ze sobą dwie funkcje logiczne występujące w tej samej logice: dodatniej (bo Y) albo ujemnej (bo ~Y).
Postawmy tu kropkę nad „i” negując dwustronnie funkcje logiczne po prawej stronie znaczka ##, czyli sprowadzając tabelę TB wyłącznie do logiki dodatniej (bo Y)
Kod:

TC
3A:  Y=(p=>q) =~p+ q        ##  6B:  Y= (p|~>q)= p*~q
4A:  Y=(p~>q) = p+~q        ##  5B:  Y= (p|=>q)=~p* q
5A:  Y=(p|=>q)=~p* q        ##  4B:  Y= (p|~>q)= p*~q
6A:  Y=(p|~>q)= p*~q        ##  3B:  Y= (p=>q) =~p+ q
7A:  Y=(p<=>q)= p* q+~p*~q  ##  8B:  Y= (p$q)  = p*~q+~p* q
8A:  Y=(p$q)  = p*~q+~p* q  ##  7B:  Y= (p<=>q)= p* q+~p*~q
## - różne na mocy definicji
p i q muszą być tymi samymi p i q, inaczej błąd podstawienia

Jak widzimy po zanegowaniu prawych stron znaczka ## w żadnej z linii nie zachodzi tożsamość funkcji logicznej Y, zatem we wszystkich liniach mamy do czynienia z funkcjami logicznymi różnymi na mocy definicji ##.

11.8.1 Prawo Grzechotnika - Armagedon ziemskiego rachunku zero-jedynkowego

Przepiszmy tabelę TB:
Kod:

TB
3A:  Y=(p=>q) =~p+ q        ##  6B: ~Y=~(p|~>q)=~p+ q
4A:  Y=(p~>q) = p+~q        ##  5B: ~Y=~(p|=>q)= p+~q
5A:  Y=(p|=>q)=~p* q        ##  4B: ~Y=~(p|~>q)=~p+ q
6A:  Y=(p|~>q)= p*~q        ##  3B: ~Y=~(p=>q) = p*~q
7A:  Y=(p<=>q)= p* q+~p*~q  ##  8B: ~Y=~(p$q)  = p* q+~p*~q
8A:  Y=(p$q)  = p*~q+~p* q  ##  7B: ~Y=~(p<=>q)= p*~q+~p* q
Gdzie:
## - różne na mocy definicji
p i q muszą być tymi samymi p i q, inaczej błąd podstawienia


Film powinien zaczynać się od trzęsienia ziemi, potem zaś napięcie ma nieprzerwanie rosnąć
Alfred Hitchcock.


Największą tragedią ziemskiej logiki matematycznej jest fakt, że w bramkach logicznych po stronie wejścia cyfrowego widzi ona zmienne binarne w logice dodatniej (bo p) i ujemnej (bo ~p), ale nie widzi dokładnie tego samego po stronie wyjścia cyfrowego Y, tu obowiązuje bezwzględny zakaz widzenia wyjścia Y w logice ujemnej (bo ~Y).
Dowód:
W całym Internecie (plus podręczniki matematyki) nie znajdziemy ani jednej kolumny wynikowej w rachunku zero-jedynkowym opisanej funkcją logiczną w logice ujemnej (bo ~Y).

Odpowiednikiem tego faktu w matematyce klasycznej byłoby widzenie w układzie Kartezjańskim na osi X zmiennych dodatnich (x) i zmiennych ujemnych (~x) z zakazem widzenia dokładnie tego samego na osi Y, gdzie dozwolone byłoby widzenie jedynie zmiennych dodatnich (y).
Czy ktokolwiek wyobraża sobie współczesną matematykę z takim upośledzonym układem Kartezjańskim?

Prawo Grzechotnika:
Ziemski rachunek zero-jedynkowy który nie widzi funkcji logicznej w logice dodatniej (bo Y) i funkcji logicznej w logice ujemnej (bo ~Y) jest wewnętrznie sprzeczny na poziomie funkcji logicznych.

Aktualny rachunek zero-jedynkowy ziemskich matematyków operuje tylko i wyłącznie na wyrażeniach algebry Boole’a, czyli na prawych stronach funkcji logicznych Y i ~Y.

Usuńmy zatem wszystkie funkcje logiczne Y i ~Y z tabeli TB.
Kod:

TB"
3A:  ~p+ q        [=]  6B: ~p+ q
4A:   p+~q        [=]  5B:  p+~q
5A:  ~p* q        [=]  4B: ~p+ q
6A:   p*~q        [=]  3B:  p*~q
7A:   p* q+~p*~q  [=]  8B:  p* q+~p*~q
8A:   p*~q+~p* q  [=]  7B:  p*~q+~p* q
Gdzie:
p i q muszą być tymi samymi p i q, inaczej błąd podstawienia

Doskonale widać że po usunięciu z tabeli TB funkcji logicznych Y i ~Y zgwałcony został najważniejszy znaczek logiki matematycznej, znaczek różne na mocy definicji ##, bowiem w tabeli TB" we wszystkich liniach musimy postawić znak tożsamości logicznej [=]

Definicja tożsamości logicznej [=]:
Prawdziwość dowolnej strony tożsamości logicznej [=] wymusza prawdziwość drugiej strony
Fałszywość dowolnej strony tożsamości logicznej [=] wymusza fałszywość drugiej strony
Tożsame znaczki tożsamości logicznej:
[=], "=", <=> (wtedy i tylko wtedy)


Ostatnio zmieniony przez rafal3006 dnia Pon 12:39, 16 Wrz 2024, w całości zmieniany 1 raz
Powrót do góry
Zobacz profil autora
Wyświetl posty z ostatnich:   
Napisz nowy temat   Odpowiedz do tematu    Forum ŚFiNiA Strona Główna -> Metodologia / Forum Kubusia Wszystkie czasy w strefie CET (Europa)
Strona 1 z 1

 
Skocz do:  
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach

fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
Regulamin