Forum ŚFiNiA Strona Główna ŚFiNiA
ŚFiNiA - Światopoglądowe, Filozoficzne, Naukowe i Artystyczne forum - bez cenzury, regulamin promuje racjonalną i rzeczową dyskusję i ułatwia ucinanie demagogii. Forum założone przez Wuja Zbója.
 
 FAQFAQ   SzukajSzukaj   UżytkownicyUżytkownicy   GrupyGrupy   GalerieGalerie   RejestracjaRejestracja 
 ProfilProfil   Zaloguj się, by sprawdzić wiadomościZaloguj się, by sprawdzić wiadomości   ZalogujZaloguj 

Kompendium algebry Kubusia

 
Napisz nowy temat   Ten temat jest zablokowany bez możliwości zmiany postów lub pisania odpowiedzi    Forum ŚFiNiA Strona Główna -> Metodologia / Forum Kubusia
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 35257
Przeczytał: 24 tematy

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Czw 14:19, 05 Wrz 2024    Temat postu: Kompendium algebry Kubusia

Kompendium algebry Kubusia
Matematyczna wojna wszech czasów:
Algebra Kubusia vs Klasyczny Rachunek zdań


2024-09-22 Premiera

Autor:
Kubuś ze 100-milowego lasu




Rozszyfrowali:
Rafal3006 i przyjaciele

[link widoczny dla zalogowanych](Biblia)
Ziemia Obiecana - biblijne miejsce, do którego Mojżesz prowadził Izraelitów po wyprowadzeniu ich z Egiptu i przeprowadzeniu przez Morze Czerwone

Za x lat w Wikipedii znajdziemy taki wpis:
Algebra Kubusia – miejsce, do którego Kubuś ze 100-milowego lasu prowadził ziemskich matematyków po wyprowadzeniu ich z Klasycznego Rachunku Zdań

I.
Link do „Kwintesencji algebry Kubusia” w pdf (Stron 79)
[link widoczny dla zalogowanych]
Kod:
https://www.dropbox.com/scl/fi/avsk83obrx9t6vnfgnwkw/Algebra-Kubusia-Kwintesencja.pdf?rlkey=b24eegq1inibu9gs754ig5rcc&dl=0


II.
Link do „Kompendium algebry Kubusia” w pdf (Stron: 233)
[link widoczny dla zalogowanych]
Kod:
https://www.dropbox.com/scl/fi/uivxh4c74kaaiabg3e5ui/Algebra-Kubusia-Kwintesencja.pdf?rlkey=2hj7bsiq1e4ubn53rqabdwc9j&dl=0


Link do „Kompendium algebry Kubusia” na forum śfinia:
http://www.sfinia.fora.pl/forum-kubusia,12/kwintesencja-algebry-kubusia,26413.html#812849

III.
Pełna wersja "Algebra Kubusia - matematyka języka potocznego" (Stron: 1376):
[link widoczny dla zalogowanych]
Kod:
https://www.dropbox.com/s/hy14p42kup25c32/Kompendium%20algebry%20Kubusia.pdf?dl=0


Link do pełnej wersji algebry Kubusia na forum śfinia:
http://www.sfinia.fora.pl/forum-kubusia,12/algebra-kubusia-matematyka-jezyka-potocznego,21937.html#680041

ŚFiNiA - Światopoglądowe, Filozoficzne, Naukowe i Artystyczne forum – bez cenzury.
Link do forum filozoficznego sfinia z jego niezwykłym regulaminem pozwalającym głosić dowolne herezje bez obawy o bana - tylko i wyłącznie dzięki temu algebra Kubusia została rozszyfrowana.
Na forum śfinia mamy dostęp do pełnej, 19 letniej historii rozszyfrowywania algebry Kubusia.
http://www.sfinia.fora.pl/forum-kubusia,60/

Dziękuję wszystkim, którzy dyskutując z Rafałem3006 przyczynili się do odkrycia algebry Kubusia:
Wuj Zbój, Miki (vel Lucek), Volrath, Macjan, Irbisol, Makaron czterojajeczny, Quebab, Windziarz, Fizyk, Idiota, Sogors (vel Dagger), Słupek, Fiklit, Yorgin, Exodim, FlauFly, Pan Barycki, Zbigniewmiller, Mar3x, Wookie, Prosiak, Andy72, Michał Dyszyński, Szaryobywatel, Jan Lewandowski, MaluśnaOwieczka, Zefciu i inni.

Kluczowi przyjaciele Kubusia, którzy wnieśli największy wkład w rozszyfrowanie algebry Kubusia to: Rafal3006, Wuj Zbój, Volrath, Macjan, Irbisol, Fiklit (kolejność chronologiczna).

Spis treści:
Część I Operatory jednoargumentowe
Część II Operatory dwuargumentowe
Część III Kwintesencja algebry Kubusia. Część 1
Część III Kwintesencja algebry Kubusia. Część 2
Część IV Algebra Kubusia w bramkach logicznych
Część V Kubusiowa teoria zbiorów

Części kompendium algebry Kubusia:

W „Kompendium algebry Kubusia” zachowano oryginalną numerację rozdziałów z pełnej wersji, dzięki czemu łatwo dostępna jest wiedza rozszerzona pominięta w kompendium, w szczególności mamy łatwy dostęp do dużej ilości przykładów z języka potocznego, które pominięto w kompendium.
Kwintesencja algebry Kubusia to punkt 2.0, gdzie przedstawiono matematyczną obsługę zdań warunkowych „Jeśli p to q” definiowanych warunkami wystarczającymi => i koniecznymi ~>.

Puenta kompendium algebry Kubusia to prawo Grzechotnika (1.8.4, 1.8.6, 1.9.1, 1.18.3, 11.8.1)
Prawo Grzechotnika:
Aktualna, ziemska algebra Boole'a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.

I. (1.0-1.9)
Pierwsza część kompendium to szczegółowe omówienie operatorów jednoargumentowych
Operatory jednoargumentowe to kwintesencja działania wszelkich operatorów logicznych definiowanych spójnikami „i”(*) i „lub”(+) z języka potocznego 5-cio latka.
Operatory jednoargumentowy to zaledwie cztery operatory różne na mocy definicji ## (pkt.1.3.2)
Przy dwóch argumentach mamy już 16 różnych na mocy definicji ## operatorów (pkt. 1.16)

II. (1.10-1.17)
Druga część kompendium to operatory dwuargumentowe gdzie zaprezentowano:
Nowatorską aksjomatykę minimalną algebry Boole’a (pkt. 1.10.1)
Definicję operatora „lub”(|+) (pkt. 1.14.1) oraz operatora „i”(|*) (pkt. 1.15.1)
Opis dowolnej tabeli zero-jedynkowej równaniami algebry Boole’a (pkt. 1.16)
Tabelę wszystkich możliwych operatorów dwuargumentowych (pkt. 1.18.2)

III. (2.0-2.17)
Trzecia część kompendium to „Kwintesencja algebry Kubusia”, czyli precyzyjne definicje elementarnych spójników implikacyjnych opisujących zdania warunkowe „Jeśli p to q”:
~~> - zdarzenie możliwe lub element wspólny zbiorów
=> - warunek wystarczający
~> - warunek konieczny
Algorytm Puchacza (pkt. 2.11) to precyzyjne zdefiniowanie zdań warunkowych „Jeśli p to q” podlegających pod algebrę Kubusia.
Na zakończenie szczegółowo omówiono cztery podstawowe operatory implikacyjne:
2.12.1 – operator implikacji prostej p||=>q
2.13.1 – operator implikacji odwrotnej p||~>q
2.14.1 – operator równoważności p|<=>q
2.15.1 – operator chaosu p||~~>q

IV. (11.0-11.8)
Czwartą część kompendium dedykuję matematykom znającym teorię bramek logicznych.
„Algebra Kubusia w bramkach logicznych” to przełożenie języka potocznego człowieka na teorię bramek logicznych w skali 1:1. Oznacza to, że każde zdanie języka potocznego podlegające pod algebrę Kubusia możemy opisać teorią bramek logicznych. Algebra Kubusia jest więc w 100% weryfikowalna w laboratorium techniki cyfrowej np. na I roku elektroniki Politechniki Warszawskiej (tu byłem, rok 1975, pierwszy przyzwoity mikroprocesor i8080 to rok 1974).

V. (12.0-12.4)
Piąta część kompendium to nowatorska, Kubusiowa teoria zbiorów dla potrzeb logiki matematycznej. Mamy tu między innymi precyzyjnie zdefiniowany zbiór wszystkich zbiorów.


Wstęp

Motto Rafała3006:
Napisać algebrę Kubusia w taki sposób, by ziemski matematyk był w stanie ją zrozumieć i zaakceptować, mimo iż na starcie nie zna ani jednej definicji obowiązującej w AK.


Algebra Kubusia to jedyna poprawna logika matematyczna pod którą podlega cały nasz Wszechświat, żywy i martwy.
Kluczowe elementy algebry Kubusia w świecie żywym to matematyczna obsługa wszelkich obietnic i gróźb będąca fundamentem działania wszelkich istot żywych (nie tylko człowieka).
Naturalnymi ekspertami algebry Kubusia są 5-cio latki i humaniści.
Algebra Kubusia to podłożenie matematyki pod język potoczny człowieka, czyli coś, o czym matematycy marzą od 2500 lat (od Sokratesa).
Rozszyfrowanie algebry Kubusia to 19 lat dyskusji na forum filozoficznym w Polsce, to około 37 000 postów napisanych przez Rafała3006 wyłącznie w temacie "Logika matematyczna"
Pełna historia rozszyfrowywania algebry Kubusia dostępna jest na forum śfinia:
http://www.sfinia.fora.pl/forum-kubusia,60/

Matematycznego potwora którego nie sposób zrozumieć, zwanego dla niepoznaki Klasycznym Rachunkiem Zdań znajdziemy w każdym podręczniku matematyki do I klasy LO

Dowód iż KRZ to gwałt na rozumku każdego 5-cio latka to przykładowe zdania tu prawdziwe:
1: Jeśli 2+2=5 to jestem papieżem
2: Jeśli pies ma 8 łap to Księżyc krąży wokół Ziemi
3: Dwa plus dwa równa się cztery wtedy i tylko wtedy, gdy Płock leży nad Wisłą.

Dowód na serio prawdziwości zdania 1 znajdziemy tu:
[link widoczny dla zalogowanych]
Dowód na serio prawdziwości zdania 2 znajdziemy w podręczniku matematyki do I klasy LO:
[link widoczny dla zalogowanych]
Komentarz do zdania 3 znajdziemy w Delcie'2013:
[link widoczny dla zalogowanych]

Algebrę Kubusia wyssaliśmy z mlekiem matki i nie musimy się jej uczyć - wszyscy jesteśmy jej ekspertami w praktyce bo po prostu pod nią podlegamy nie mając żadnych szans, by się od niej uwolnić. Aktualnie żaden ziemski matematyk nie wie, iż w komunikacji z 5-cio latkami i humanistami używa tylko i wyłącznie algebry Kubusia.
Mam nadzieję, że to się wkrótce zmieni, bowiem nie jest możliwe by matematycy na poziomie rozumiejący teorię bramek logicznych (są tacy) nie załapali algebry Kubusia mającej 100% pokrycie w bramkach logicznych w przełożeniu 1:1, czego dowód znajdziemy w punkcie 11.0.

Matematycznie zachodzi tożsamość:
Algebra Kubusia = Biblia, napisana językiem zrozumiałym dla prostego człowieka.
Oznacza to, że 100% zdań w Biblii dotyczących obietnic i gróźb Chrystusa jest zgodnych z algebrą Kubusia tzn. żadne zdanie w Biblii w tym zakresie nie jest sprzeczne z AK.
Dowód tego faktu znajdziemy w punktach 3.6 i 4.6.

Podsumowując:
Matematyczna wersja algebry Kubusia jest tak samo potrzebna do szczęścia 5-cio latkowi i humaniście jak gramatyka języka polskiego, której nigdy nie znałem i nie znam, a mimo to po polsku piszę. Pewne elementy algebry Kubusia można nauczać już w przedszkolu w formie zabawy, bowiem 5-cio latki doskonale ją znają nie wiedząc, że to jest matematyka ścisła opisująca otaczającą nas rzeczywistość.

Kim jest Rafał3006?

Jestem absolwentem Technikum Energetycznego w Ostrowcu Świętokrzyskim oraz elektroniki na Politechnice Warszawskiej, Instytut Automatyki, rok 1980.
Po skończeniu studiów zdałem sobie sprawę, iż w praktyce sterowań w technice mikroprocesorowej (moja specjalizacja) wykorzystuję niewielką ilość wiedzy którą wpajano mi na studiach.
Wpadłem wówczas na pomysł napisania serii podręczników do nauki elektroniki dla hobbystów przy założeniu, że odbiorca nie zna prawa Ohma, czyli z założenia były to podręczniki dla I klasy LO, gdzie po łagodnej równi pochyłej czytelnik był prowadzony od takich pojęć jak napięcie, prąd, prawo Ohma … poprzez elektronikę klasyczną, bramki logiczne, układy scalone średniej skali integracji, układy mikroprocesorowe, do praktycznego programowania różnych sterowań w języku asemblera mikroprocesora Z80 przy pomocy opracowanego przeze mnie sterownika o nazwie CA80.

CA80 jest dziś legendą wśród starszej daty elektroników, doczekał się nawet debiutu w Krzemowej Dolinie.
Prezentacja komputerka CA80 w Computer History Museum, Mountain View, 6-7 Sierpień 2022
https://youtu.be/RKOvcejgb_0
https://www.youtube.com/watch?v=zh_pjpe64sw

Czym był CA80 dla wielu młodych ludzi w latach 80-tych najlepiej pokazuje 117 autentycznych recenzji z tamtego okresu:
[link widoczny dla zalogowanych]

Oryginały napisanych przeze mnie prawie 40 lat temu podręczników MIK01-MIK11 do nauki elektroniki i mikroelektroniki dostępne są w wersji pdf na forum elektroda.pl dzięki Andrzejowi Liskowi który je zeskanował (trzeba się zarejestrować by mieć do nich dostęp):
[link widoczny dla zalogowanych]

Uważam, że podręczniki te nadal są aktualne i ciekawe dla uczniów techników o specjalności elektrycznej i elektronicznej. Szczególnie polecam MIK01 i MIK02 zawierające wiedzę podstawową, która nigdy się nie zestarzeje np. napięcie, prąd, prawo Ohma (MIK01), zrozumienie fundamentów działania wszelkich mikroprocesorów na poziomie sprzętowym (MIK02).
Ciekawostką jest fakt, że mikroprocesor Z80 opisywany w MIK02 wywodzi się z linii mikroprocesorów Intela i8080 której zwieńczeniem był 16 bitowy mikroprocesor i8086 zastosowany w pierwszym poważnym komputerze osobistym IBM PC (rok 1981) będącym protoplastą wszelkich obecnych komputerów tzn. program napisany w języku asemblera na staruszka i8086 będzie działał poprawnie w dzisiejszych komputerach zbudowanych na najnowszych procesorach firmy Intel np. i5-1235u

Z perspektywy czasu myślę, że mój CA80 był wstępem koniecznym dla rozszyfrowania algebry Kubusia, logiki matematycznej pod którą podlega cały nasz Wszechświat żywy i martwy.
Myślę, że o CA80 z czasem ludzie zapomną, bo to były początki techniki mikroprocesorowej, natomiast „Algebra Kubusia” jeśli ziemscy matematycy ją zaakceptują (to tylko kwestia czasu), będzie żyła „wiecznie”.

Dla kogo algebra Kubusia?

Algebrę Kubusia dedykuję wszystkim matematykom, podobnym do Marka Kordosa, którzy potrafią spojrzeć krytycznie na fundament wszelkich ziemskich logik matematycznych zwany Klasycznym Rachunkiem Zdań.

Kim jest Marek Kordos?
[link widoczny dla zalogowanych]

Marek Tomasz Kordos (ur. 7 marca 1940) – polski matematyk, doktor habilitowany, geometra i historyk matematyki oraz jej popularyzator.
Życiorys
Założyciel i wieloletni redaktor naczelny miesięcznika Delta, autor wielu książek, współzałożyciel Ośrodka Kultury Matematycznej oraz Stowarzyszenia na rzecz Edukacji Matematycznej. Zatrudniony na stanowisku profesora nadzwyczajnego aż do emerytury pracował jako wykładowca akademicki na Wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego. Specjalizuje się w geometrii i historii matematyki. Doktorat i habilitację uzyskał za prace z geometrii rzutowo-metrycznych.


[link widoczny dla zalogowanych]

Logika, sens i wątpliwości
Marek Kordos
Delta, marzec 2013

Już przed laty, gdy brałem udział w tworzeniu jednej z kolejnych reform nauczania matematyki, miałem poważne wątpliwości, czy umieszczanie w programach nauczania matematyki (podstawach programowych, wykazach efektów nauczania, podręcznikach itp.) działu logika jest zgodne ze zdrowym rozsądkiem.

Oczywiście, wiem, że wielu głosi, iż nauczanie matematyki (jak niegdyś łaciny, której się zresztą uczyłem) to nauka logicznego myślenia. Ale, gdy czytałem otwierające wówczas podręczniki do liceum rozdziały poświęcone logice, trudno mi było powstrzymać się od wrażenia, że nie ma w nich żadnego sensu. Nie wymienię, rzecz jasna, żadnego konkretnego podręcznika (po co mi rozprawy sądowe – przecież podręcznik to wielkie pieniądze), ale wrażenie przy lekturze każdego z nich było podobne.
Od razu chciałbym powiedzieć, że nie chodzi o opinię, iż logika nigdy matematyce nie pomogła, bo unikanie błędów nie jest aktem twórczym (patrz Nicolas Bourbaki, Elementy historii matematyki). Chodzi o coś więcej. Ale nie śmiałem nalegać na usunięcie tego działu ze szkolnego nauczania, bo jeśli wszyscy widzą w nim sens, to może on tam – wbrew pozorom – istnieje.

Dopiero na sympozjum z okazji dziewięćdziesięciolecia Profesora Andrzeja Grzegorczyka dowiedziałem się, że moje wątpliwości nie są odosobnione i nawet w Instytucie Filozofii i Socjologii PAN prowadzone są prace nad taką modyfikacją logiki, by jej wady usunąć.

Co to za wady? Proszę spojrzeć na zdanie:
Dwa plus dwa równa się cztery wtedy i tylko wtedy, gdy Płock leży nad Wisłą.

Oczywiście, zdanie to jest prawdziwe, ale czy ma sens? Przecież między pewnym faktem arytmetycznym a innym faktem geograficznym żadnego związku nie ma. Dlaczego więc chcemy twierdzić (ba, uczyć tego), że te dwa zdania są równoważne?

Albo zdanie:
Jeśli dwa plus dwa jest równe pięć, to zachodzi twierdzenie Pitagorasa.

Z punktu widzenia logiki to zdanie jest prawdziwe. Tu już po obu stronach implikacji są zdania dotyczące faktów matematycznych. Dlaczego jednak chcemy zmusić młodego człowieka, by widział w tym sens?
Wyjaśnienie jest proste: w pierwszym przypadku chodzi o to, że równoważność zdań ma miejsce, gdy wartość logiczna obu zdań jest taka sama; w drugim – o to, że implikacja jest poprawna, gdy ma fałszywy poprzednik.

A więc logika sprowadza nasz świat do zbioru dwuelementowego, nic przeto dziwnego, że rzeczy absolutnie niepołączone żadnym znaczeniowym (semantycznym) związkiem muszą się znajdować w przynajmniej jednej z dwóch komórek, do jakiejś muszą trafić.

Powstają dwa pytania. Po pierwsze, czemu logika została tak skonstruowana, że – abstrahując od sensu – okalecza pojęciowy świat? Po drugie, czy faktycznie należy trzymać ją jak najdalej od młodzieży, bo tylko ją demoralizuje, każąc za wiedzę uważać takie androny, jak przytoczone powyżej?

Odpowiedź na pierwsze pytanie jest dość prosta. Nowoczesna logika formalna została stworzona (jak wielu uważa) przez Gottloba Fregego (1848-1925) tak, by obsługiwała matematykę, a tę rozumiano wówczas jako badanie prawdziwości zdań języków formalnych.

Odpowiedzi na drugie pytanie de facto nie ma. Tłumaczymy się z używania takich abstrahujących od znaczeń spójników logicznych tym, że alternatywa, koniunkcja i negacja są sensowne; że chcemy, aby młody człowiek wiedział, że zaprzeczeniem zdania, iż istnieje coś mające własność A, jest to, że wszystkie cosie własności A nie mają; że implikacja ze zdania prawdziwego daje jednak tylko zdania prawdziwe itd., itp.

Ale naprawdę chodzi o to, że – jak z małżeństwem i demokracją – lepszej propozycji dotąd nie wynaleziono. A szkoda.


Komentarz Rafała3006:
Ostatnie zdanie jest już nieaktualne bo:
Algebra Kubusia, logika matematyczna pod którą podlega cały nasz Wszechświat martwy i żywy (w tym język potoczny człowieka) została rozszyfrowana.


Jakie jest znaczenie algebry Kubusia dla ludzkości?

Teoretycznie żadne, bo wszyscy podlegamy pod algebrę Kubusia będąc jej ekspertami w praktyce, nie mając żadnych szans by się od niej uwolnić.
Logika matematyczna to poziom 5-cio letniego dziecka, eksperta algebry Kubusia.

Praktyczne znaczenie algebry Kubusia jest niebotyczne przede wszystkim w obszarze filozofii, ale nie tylko - skończy się pranie mózgów na studiach np. pedagogicznych gdzie dla przeciętnego studenta logika matematyczna jest potworem, niezrozumiałym i strasznym.

Dowód:
Czym jest współczesna logika matematyczna dla przeciętnego studenta celnie ujął dr hab. Krzysztof A. Wieczorek we wstępie do swojej książki „Logika dla opornych”:
[link widoczny dla zalogowanych]
Krzysztof A. Wieczorek
Logika dla opornych
Wszystko co powinniście wiedzieć o logice, ale nie uważaliście na zajęciach

WSTĘP
Celem tego podręcznika nie jest systematyczny wykład logiki. Książek takich jest już wystarczająco dużo, więc osoba głębiej zainteresowana tym przedmiotem na pewno nie będzie miała kłopotu ze znalezieniem czegoś odpowiedniego dla siebie. Niniejsza pozycja przeznaczona jest przede wszystkim dla tych, którzy pobieżnie zetknąwszy się z logiką, na przykład jako z przedmiotem wykładanym podczas krótkiego kursu na wyższej uczelni, z przerażeniem stwierdzili, że nic z tego nie rozumieją. Przyświeca mi cel pokazania takim osobom, że wbrew pozorom logika wcale nie jest taka trudna, jak by się to mogło początkowo wydawać, a jej nauka nie musi przypominać drogi przez mękę.

Większość tradycyjnych podręczników logiki najeżona jest technicznymi terminami, sucho brzmiącymi definicjami i twierdzeniami oraz skomplikowanymi wzorami. Brakuje im natomiast przykładów ilustrujących zawarty materiał teoretyczny i wyjaśniających bardziej złożone zagadnienia w sposób zrozumiały dla osób uważających się za „humanistów”, a nie „ścisłowców”. Sytuacja ta sprawia, że po zapoznaniu się z treścią takiego podręcznika lub po wysłuchaniu wykładu opracowanego na jego podstawie, adept logiki ma trudności z rozwiązaniem nawet bardzo prostych zdań umieszczanych na końcach rozdziałów lub w specjalnych zbiorach ćwiczeń z logiki. Taki stan rzeczy przyprawia o mdłości i ból głowy zarówno wielu wykładowców logiki zrozpaczonych rzekomą całkowitą niezdolnością do poprawnego myślenia okazywaną przez ich studentów, jak i tych ostatnich, zmuszonych do zaliczenia przedmiotu, z którego niemal nic nie rozumieją.

Doświadczenie zdobyte przeze mnie podczas lat nauczania logiki na różnych kierunkach uniwersyteckich wskazuje jednakże, iż najczęściej nieumiejętność rozwiązywania zadań z logiki nie jest wynikiem jakichkolwiek braków umysłowych studentów ani nawet ich lenistwa, ale po prostu przerażenia wywoływanego przez gąszcz niezrozumiałych dla nich wzorów, twierdzeń i definicji. Panika ta widoczna jest szczególnie u osób obdarzonych bardziej humanistycznym typem umysłowości, alergicznie reagujących na wszystko, co kojarzy im się z matematyką.

Można oczywiście ubolewać nad tym, że tak wielu młodych ludzi nie chce pokonać w sobie uprzedzeń do logiki i zmuszać ich „dla ich dobra” do przyswajania tej wiedzy w tradycyjnej formie. Czy ma to jednak większy sens? Da się oczywiście sprawić, że uczeń poświęci tydzień czasu przed egzaminem (często wspomagając się przy tym różnego rodzaju chemicznymi „środkami dopingującymi”) na pamięciowe wykucie kilkudziesięciu twierdzeń i 7 praw, a następnie nauczy się ich mechanicznego stosowania. Nie zmieni to jednak faktu, iż student taki w dalszym ciągu nie będzie rozumiał istoty tego, co robi, ani jaki jest właściwie cel wykonywanych przez niego operacji.



Algebra Kubusia: Czy podbije serca matematyków?

W ciągu 19 lat dyskusji w temacie logiki matematycznej dyskutowałem z wieloma matematykami z najwyższej półki (Volrath, Macjan, Fiklit)
Na szczególną uwagę zasługuje tu Fiklit, prawdopodobnie wykładowca logiki matematycznej który poświęcił 7 lat życia na dyskusję ze mną w temacie logiki matematycznej.

Kluczowi przyjaciele algebry Kubusia:

Kluczowi przyjaciele algebry Kubusia bez których ta nowatorska teoria matematyczna nie mogłaby zaistnieć to:
1.
Irbisol, fanatyk KRZ, odwieczny wróg Nr. 1 algebry Kubusia od 15 lat usiłujący ją obalić.
Dzięki Irbisolu – bez ciebie algebra Kubusia nie mogłaby zaistnieć.
2.
Fiklit, prawdopodobnie wykładowca ziemskiej logiki matematycznej, dzięki któremu w ciągu 7-letniej dyskusji poznałem tok myślenia w temacie „Logika matematyczna” współczesnych, ziemskich matematyków.
Dzięki Fiklicie – bez ciebie algebra Kubusia nie mogłaby zaistnieć

Historia dyskusji z Fiklitem:

Tu jest post wejściowy Fiklita na forum Yrizona, będący dowodem jego profesjonalizmu w temacie ziemskiej logiki matematycznej:
Wysłany: Śro 17:37, 12 Wrz 2012
http://www.sfinia.fora.pl/forum-kubusia,12/finalowa-dyskusja-wszech-czasow-z-fiklitem-na-yrizonie-c-i,6149-175.html#181230

W kolejnym swoim poście Fiklit napisał:
Wysłany: Pią 0:23, 14 Wrz 2012
http://www.sfinia.fora.pl/forum-kubusia,12/finalowa-dyskusja-wszech-czasow-z-fiklitem-na-yrizonie-c-i,6149-200.html#181262
@Fiklit
Dag, dzięki, ale na razie nie będę czytał wcześniejszych prac, bo zauważyłem, że jest ich kilka wersji i już na wstępie nie wszystko dokładnie rozumiem. Dlatego wolę jak mi Kubuś robi indywidualny wykład, bo mam możliwość na bieżąco wyjaśniać pojawiające się wątpliwości.

W tym wytłuszczonym widać, że Fiklit już w drugim swoim poście na Yrizonie zadeklarował chęć bliższego poznania algebry Kubusia - nasza dyskusja trwała 7 lat.

Ile postów napisał Fiklit na forum śfinia w dyskusji ze mną na temat logiki matematycznej?
Fiklit: Dołączył: 24 Wrz 2012, Posty: 4197
Początek dyskusji z Fiklitem to forum Yrizona o czym jest wyżej.
Do fanatyków KRZ: Wystarczy?

Podsumowując:
Czy gdyby algebra Kubusia była bez sensu, jak twierdzą fanatycy KRZ, to czy Fiklit dyskutowałby ze mną 7 lat pisząc 4197 postów w temacie logiki matematycznej?

Ostatni post Fiklita:
Wysłany: Pon 10:37, 25 Mar 2019
http://www.sfinia.fora.pl/forum-kubusia,12/gowno-logika-ziemian-zwana-klasycznym-rachunkiem-zdan,11921-1175.html#441721
@Fiklit
Czy mamy szanse to nie wiem, ale biorąc pod uwagę postępy AK w podboju świata, to można pokusić się o nieśmiałe stwierdzenie, że trzymamy się całkiem dobrze.
Rafał, ty nie potrafisz tłumaczyć. Do tego potrzeba choć trochę umiejętności zrozumienia czego druga osoba nie rozumie. Ty nawet nie rozumiesz na czym polega problem ze zrozumieniem "rzucania monetą" i nie jesteś w stanie znaleźć rozwiązania.


Dowód iż w logice matematycznej mamy „rzucanie monetą” na poziomie matematyki ogólnej (bez żadnych przykładów) jest trywialny i jest on dostępny w aktualnej wersji algebry Kubusia:
http://www.sfinia.fora.pl/forum-kubusia,12/algebra-kubusia-matematyka-jezyka-potocznego,21937.html#680051
2.12.1 Operator implikacji prostej p||=>q
2.13.1 Operator implikacji odwrotnej p||~>q
Przykro mi Fiklicie, że nie zdołałem ci wytłumaczyć algebry Kubusia w sposób zrozumiały.
Powodem tego jest fakt, że 100% definicji w obszarze logiki matematycznej mamy innych, chodzi tu przede wszystkim o biegłą znajomość teorii bramek logicznych (tu jestem ekspertem) gdzie brak w logice matematycznej ziemskich matematyków pojęcia funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest powodem jej wewnętrznej sprzeczności.

Patrz prawo Grzechotnika (1.8.4, 1.8.6, 1.9.1, 1.18.3, 11.8.1)
Prawo Grzechotnika:
Aktualna, ziemska algebra Boole'a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.
Wniosek: Miejsce aktualnej algebry Boole’a jest w koszu na śmieci.

Co dalej z algebrą Kubusia?
Czy ma szansę zaistnieć w ziemskiej matematyce?
Mam nadzieję że tak, choć nie wykluczam, że umrze razem ze mną.

Jakie są perspektywy propagowania algebry Kubusia wśród matematyków?
Nie wiem.
Wiem tylko, że fanatycy KRZ nigdy nie zaakceptują algebry Kubusia.
Moim zdaniem należy pozwolić im umrzeć w spokoju bo nic ich do algebry Kubusia nie przekona.

1.
Twierdzenia matematyczne uważane są za prawdziwe, ponieważ w niczyim interesie nie leży, by uważać je za fałszywe.
Monteskiusz.
2.
Klasyczny Rachunek Zdań uważany jest za prawdziwy, ponieważ w niczyim interesie nie leży, by uważać go za fałszywy
Rafał3006


Algebra Kubusia to logika matematyczna przyszłych pokoleń matematyków.
Liczę na matematyków znających biegle teorię bramek logicznych, są tacy np. Volrath (pkt. 22.0)


0.0 Skorowidz znaczków używanych w algebrze Kubusia

Definicje znaczków używanych w algebrze Kubusia poparto prostymi przykładami, zrozumiałymi dla każdego 5-cio latka.

I.
Nowa algebry Boole'a związana wyłącznie za spójnikami "lub"(+) i "i"(*)


1.
Znaczki elementarne (1.1):

1 = prawda
0 = fałsz
(~) - negacja (zaprzeczenie), słówko „NIE” w języku potocznym
Definicja logiki dodatniej (bo p) i logiki ujemnej (bo ~p) (1.1.1)

2.
Spójniki podstawowe "lub"(+) i "i"(*) zgodne z językiem potocznym:

(+) - spójnik „lub”(+) w języku potocznym (1.14)
(*) - spójnik „i”(*) w języku potocznym (1.15)

3.
Operatory logiczne "lub"(|+) i "i'(|*) definiowane spójnikami podstawowymi "lub"(+) i "i"(*):

(|+) - operator "lub"(|+) w języku potocznym (1.14.1)
(|*) - operator "i"(|*) w języku potocznym (1.15.1)

II.
Algebra Kubusia obsługująca zdania warunkowe "Jeśli p to q"


Definicja spójnika implikacyjnego:
Spójnik implikacyjny to spójnik związany w obsługą zdań warunkowych "Jeśli p to q" definiowanych warunkami wystarczającymi => i koniecznymi ~>

Definicje spójników implikacyjnych w algebrze Kubusia mają układ trzypoziomowy {1=>2=>3}:
1.
Elementarne spójniki implikacyjne: =>, ~>, ~~>
2.
Podstawowe spójniki implikacyjne: |=>, |~>, <=>, |~~> definiowane spójnikami elementarnymi
3.
Operatory implikacyjne: ||=>, ||~>, |<=>, ||~~> definiowane podstawowymi spójnikami implikacyjnymi.

1.
Spójniki elementarne zdań warunkowych "Jeśli p to q":

Zdarzenia:
~~> - zdarzenie możliwe w teorii zdarzeń (2.2.1)
=> - warunek wystarczający (2.2.2)
~> - warunek konieczny (2.2.3)
Zbiory:
~~> - element wspólny zbiorów w teorii zbiorów (2.3.1)
=> - warunek wystarczający (2.3.2)
~> - warunek konieczny (2.3.3)

2.
Podstawowe spójniki implikacyjne definiowane spójnikami elementarnymi:

|=> - implikacja prosta (2.12, 3.1)
|~> - implikacja odwrotna (2.13, 4.1)
<=> - równoważność (2.14, 6.1)
|~~> - chaos (2.15, 8.1)
$ - spójnik "albo" dostępny w rozszerzonej algebrze Kubusia (7.2)

3.
Operatory implikacyjne definiowane podstawowymi spójnikami implikacyjnymi:

||=> - operator implikacji prostej (2.12.1, 3.1.1)
||~> - operator implikacji odwrotnej (2.13.1, 4.1.1)
|<=> - operator równoważności (2.14.1, 6.1.1)
||~~> - operator chaosu (2.15.1, 8.1.1)
|$ - operator "albo" dostępny w rozszerzonej algebrze Kubusia (7.2.1)

III.
Pozostałe znaczki algebry Kubusia:

# - różne w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony (2.5.1)
## - różne na mocy definicji (2.5.1)
### - różne na mocy nietrywialnego błędu podstawienia (2.7.4)

Uwaga:
To są wszystkie znaczki używane w algebrze Kubusia tzn. nie są potrzebne w AK jakiekolwiek inne znaczki.
W szczególności nie ma w algebrze Kubusia rachunku kwantyfikatorów i związanych z nim znaczków: kwantyfikator mały (istnieje) \/ i kwantyfikator duży (dla każdego) /\


Ostatnio zmieniony przez rafal3006 dnia Nie 12:04, 13 Paź 2024, w całości zmieniany 101 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 35257
Przeczytał: 24 tematy

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Sob 11:34, 14 Wrz 2024    Temat postu:

Kompendium algebry Kubusia
Część I Operatory jednoargumentowe

Spis treści
1.0 Nowa algebra Boole’a 2
1.1 Definicje elementarne algebry Boole'a 3
1.1.1 Definicja negacji 3
1.1.2 Negator dwukierunkowy w bramkach logicznych 4
1.2 Fundamenty algebry Boole'a 5
1.2.1 Definicja funkcji logicznej algebry Boole'a 6
1.2.2 Prawo negacji funkcji logicznej Y 7
1.2.3 Ogólna definicja logiki matematycznej 7
1.3 Definicja funkcji logicznej jednoargumentowej Y=x 8
1.3.1 Definicja operatora logicznego jednoargumentowego Y|=x 8
1.3.2 Tabela wszystkich możliwych operatorów jednoargumentowych 9
1.4 Prawa Prosiaczka 9
1.4.1 Wyprowadzenie I prawa Prosiaczka 10
1.4.2 Wyprowadzenie II prawa Prosiaczka 12
1.4.3 Prawa Prosiaczka w bramkach logicznych 13
1.4.4 Przykład działania praw Prosiaczka na gruncie fizyki 14
1.4.5 Dowód praw Prosiaczka na poziomie 3-latka 14
1.5 logika matematyczna stałych binarnych 15
1.5.1 Stałe binarne w wieku niemowlęcym 16
1.5.2 Stałe binarne w wieku 9 miesięcy 16
1.5.3 Stałe binarne w pierwszej klasie LO na lekcji logiki matematycznej 17
1.5.4 Pułapki w operatorach jednoargumentowych 20
1.6 Zasady kodowania zdań w operatorach jednoargumentowych 20
1.6.1 Zasady kodowania zdań twierdzących w świecie żywym 21
1.6.2 Funkcja logiczna Y zmiennej binarnej p 22
1.6.3 Funkcja logiczna Y stałej binarnej p 23
1.7 Prawo Puchacza dla zdań twierdzących jednoargumentowych 23
1.7.1 Jak działa prawo Puchacza? 23
1.7.2 Miękkie jedynki i miękkie zera w logice matematycznej 24
1.8 Funkcje Y=x i operatory Y|=x jednoargumentowe 25
1.8.1 Definicja funkcji transmisji Y=p i operatora transmisji Y|=p 25
1.8.2 Definicja funkcji negacji Y=~p i operatora negacji Y|=~p 26
1.8.3 Relacja matematyczna między operatorami Y|=p a Y|=~p 27
1.8.4 Prawo Grzechotnika dla funkcji jednoargumentowych 28
1.8.5 Prawo Sokoła 29
1.8.6 Prawo Grzechotnika dla stałych binarnych 29
1.8.7 Prawo Sokoła dla stałych binarnych 31
1.9 Prawo Grzechotnika na przykładzie zrozumiałym dla 5-cio latka 31
1.9.1 Dowód prawa Grzechotnika na poziomie przedszkola 34



Wstęp.

Operatory jednoargumentowe to kwintesencja działania wszelkich operatorów logicznych definiowanych spójnikami „i”(*) i „lub”(+) z języka potocznego 5-cio latka.
Zrozumienie istoty działania operatorów jednoargumentowych jest warunkiem koniecznym dla zrozumienia istoty działania wszelkich operatorów logicznych n-argumentowych definiowanych spójnikami „i”(*) i „lub”(+)
Operatory jednoargumentowy to zaledwie cztery operatory różne na mocy definicji ## (pkt.1.3.2)
Przy dwóch argumentach mamy już 16 różnych na mocy definicji ## operatorów (pkt. 1.18)

1.0 Nowa algebra Boole’a

Algebra Kubusia to matematyczny opis języka potocznego (w tym matematyki i fizyki).

Algebra Kubusia zawiera w sobie nową algebrę Boole’a mówiącą wyłącznie o spójnikach „i”(*) oraz „lub”(+) z języka potocznego człowieka.
Innymi słowy:
Aktualna algebra Boole’a w ogóle nie zajmuje się kluczową i najważniejszą częścią logiki matematycznej, czyli obsługą zdań warunkowych „Jeśli p to q” definiowanych warunkami wystarczającymi => i koniecznymi ~>.

Definicja nowej algebry Boole’a na poziomie znaczków:
Nowa algebra Boole’a to algebra dwuelementowa akceptująca zaledwie pięć znaczków:
1 = prawda
0 = fałsz
„nie”(~) - negacja (zaprzeczenie), słówko „NIE” w języku potocznym
Spójniki logiczne zgodne z językiem potocznym:
„i”(*) - spójnik „i”(*) w języku potocznym
„lub”(+) - spójnik „lub”(+) w języku potocznym

Dlaczego nowa algebra Boole’a?
1.
W algebrze Kubusia zachodzi tożsamość znaczków:
Spójnik „i”(*) z języka potocznego = bramka AND (*) w technice = koniunkcja (*) w matematyce
Spójnik „lub”(+) z języka potocznego = bramka OR(+) w technice = alternatywa (+) w matematyce
Dowód tego faktu na poziomie 5-cio latka znajdziemy w punkcie 1.11 (sterowanie windą).
2.
Stara algebra Boole’a nie zna kluczowych dla logiki matematycznej pojęć: logika dodatnia (bo p) i logika ujemna (bo ~p). Definicję znajdziemy w pkt. 1.1.1
3.
Stara algebra Boole'a jest wewnętrznie sprzeczna na poziomie funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y), co udowodnimy za chwilkę (pkt. 1.8.4, 1.8.6, 1.9.1)

1.1 Definicje elementarne algebry Boole'a

1 = prawda
0 = fałsz

Gdzie:
1##0
Prawda (1) jest różna na mocy definicji ## od fałszu (0)

Matematyczny związek wartości logicznych 1 i 0:
1 = ~0
0 = ~1
(~) - negacja

Innymi słowy:
Prawda (1) to zaprzeczenie (~) fałszu (0)
Fałsz (0) to zaprzeczenie (~) prawdy (1)

Definicja stałej binarnej:
Stała binarna to symbol mający w osi czasu stałą wartość logiczną (0 albo 1)

Pani w przedszkolu:
Pójdziemy do kina (K) lub nie pójdziemy do kina (~K)
Y = K+~K =1 - zdanie zawsze prawdziwe
Pójdziemy do kina (K) i nie pójdziemy do kina (~K)
Y = K*~K =0 - zdanie zawsze fałszywe
Gdzie:
Y - stała binarna

Definicja zmiennej binarnej:
Zmienna binarna to symbol, mogący w osi czasu przyjmować wyłącznie dwie wartości logiczne 0 albo 1.

Zachodzi tożsamość pojęć:
zmienna binarna = zmienna dwuwartościowa

1.1.1 Definicja negacji

Zero-jedynkowa tabela prawdy:
Zero-jedynkowa tabela prawdy to zapis wszystkich możliwych wartościowań zmiennych binarnych w postaci tabeli zero-jedynkowej.

W szczególnym przypadku symbol w nagłówku kolumny może być stałą binarną gdy w kolumnie są same jedynki albo same zera.
Kod:

DN
Definicja negacji:
   p # ~p
A: 1 #  0
B: 0 #  1
   1    2
Gdzie:
# - różne w znaczeniu iż dowolna strona # jest negacją drugiej strony

Definicja znaczka w logice matematycznej:
Znaczek w logice matematycznej to symbol zdefiniowany odpowiednią tabelą zero-jedynkową

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony
p#~p
Dowodem jest tu definicja negacji DN.

Definicja zmiennej binarnej w logice dodatniej (bo p):
Zmienna binarna p wyrażona jest w logice dodatniej (bo p) wtedy i tylko wtedy gdy nie jest zanegowana.
Inaczej mamy do czynienia ze zmienną binarną w logice ujemnej (bo ~p)

Zauważmy, że w definicji negacji DN symbole p i ~p są zmiennymi binarnymi.
Dowód:
W osi czasu (kolumna A1B1) może zajść przypadek, że zmienna binarna p przyjmie wartość logiczną 1 (A1) albo wartość logiczną 0 (B1).
W osi czasu (kolumna B2A2) może zajść przypadek, że zmienna binarna ~p przyjmie wartość logiczną 1 (B2) albo wartość logiczną 0 (A2)

Stąd mamy:
Definicja osi czasu w logice matematycznej
W dowolnej tabeli zero-jedynkowej oś czasu to zero-jedynkowa zawartość kolumny opisanej symbolem nad tą kolumną.

W logice matematycznej odpowiednikiem układu Kartezjańskiego są wykresy czasowe.
Dowód na przykładzie (strona 5):
[link widoczny dla zalogowanych]

1.1.2 Negator dwukierunkowy w bramkach logicznych

W technice cyfrowej znaczek różne # o definicji jak wyżej jest odpowiednikiem dwukierunkowego negatora „O”.
Zachodzi tożsamość znaczków: # = O
Kod:

Realizacja dwukierunkowego negatora „O” w bramkach logicznych
              -----   ~p=~(p)
p --x-------->| ~ |o-x------> ~p
    |         -----  |
    |                |
    | p=~(~p) -----  |
    -<-------o| ~ |<-x------- ~p
              -----
Gdzie:
„O” - symbol dwukierunkowego negatora o budowie jak wyżej
"o"(~) - symbole negacji w technice „o” i w języku potocznym „~”
--->| - wejście bramki logicznej negatora (~)
|o--> - wyjście bramki logicznej negatora (~)
W świecie rzeczywistym musi tu być negator z otwartym kolektorem (OC)
na przykład typu SN7406. Wyjście OC musi być podparte rezystorem do Vcc.

W świecie rzeczywistym podajemy sygnały cyfrowe {0,1} na wejściu negatora p albo ~p obserwując co jest na jego wyjściu. Wszystko musi być zgodne z definicją DN.

Matematyczne związki między p i ~p:
a)
Dowolna strona znaczka # jest negacją drugiej strony
p#~p
b)
Prawo podwójnego przeczenia:
p=~(~p) - logika dodatnia (bo p) to zanegowana logika ujemna (bo ~p)
c)
Prawo zaprzeczenia logiki dodatniej (bo p):
~p=~(p) - logika ujemna (bo ~p) to zanegowana logika dodatnia (bo p)

Dowód w rachunku zero-jedynkowym:
Kod:

Matematyczne związki w definicji negacji:
   p ~p ~(~p) ~(p)
A: 1  0    1    0
B: 0  1    0    1
   1  2    3    4

Tożsamość kolumn 1=3 jest dowodem formalnym prawa podwójnego przeczenia:
p=~(~p)
Tożsamość kolumn 2=4 jest dowodem formalnym prawa negacji logiki dodatniej (bo p):
~p=~(p)

Uwaga:
Budowa dwukierunkowego transmitera w bramkach logicznych będzie identyczna jak wyżej lecz z układem SN7407 w miejsce układu SN7406.

1.2 Fundamenty algebry Boole'a

Kluczowe znaczki algebry Boole’a to definicje spójników „i”(*) i „lub”(+) z języka potocznego człowieka.
Kod:

Definicja dwuargumentowego spójnika „i”(*):
   p* q  Y=p*q
A: 1* 1  1
B: 1* 0  0
C: 0* 1  0
D: 0* 0  0
Y=1 <=> p=1 i q=1
inaczej:
Y=0

Kod:

Definicja dwuargumentowego spójnika „lub”(+):
   p+ q  Y=p+q
A: 1+ 1  1
B: 1+ 0  1
C: 0+ 1  1
D: 0+ 0  0
Y=1 <=> p=1 lub q=1
inaczej:
Y=0

Gdzie:
<=> - wtedy i tylko wtedy

1.2.1 Definicja funkcji logicznej algebry Boole'a

Definicja wyrażenia algebry Boole'a:
Wyrażenie algebry Boole'a f(x) to zmienne binarne połączone spójnikami "i"(*) i "lub"(+)

Definicja funkcji logicznej algebry Boole'a:
Funkcja logiczna Y algebry Boole'a to zmienna binarna odzwierciedlająca binarne zmiany wyrażenia algebry Boole'a f(x) w osi czasu.

W technice funkcja algebry Boole'a to zwyczajowo duża litera Y.
Przykład:
f(x) - zapis ogólny dowolnie skomplikowanego i nieznanego wyrażenia algebry Boole’a
f(x)=p*q+~p*~q - definicja konkretnego wyrażenia algebry Boole’a
Stąd na mocy definicji funkcji logicznej mamy:
Y = f(x) = p*q+~p*~q
Zapis tożsamy:
Y = p*q+~p*~q

W szczególnym przypadku funkcja logiczna Y może być stałą binarną, gdy w kolumnie opisującej symbol Y są same jedynki albo same zera.

Ogólna definicja dziedziny D:
Pojęcie ~x jest uzupełnieniem dla pojęcia x do wspólnej dziedziny D oraz pojęcia x i ~x są rozłączne
x+~x =D =1 - zdanie zawsze prawdziwe (stała binarna)
x*~x =[] =0 - zdanie zawsze fałszywe (stała binarna)

Definicja dziedziny w zbiorach:
Zbiór ~p jest uzupełnieniem zbioru p do wspólnej dziedziny D oraz zbiory p i ~p są rozłączne.
Czyli:
Y = p+~p =D =1 - zdanie zawsze prawdziwe (stała binarna)
Y = p*~p =[] =0 - zdanie zawsze fałszywe (stała binarna)
W algebrze Kubusia zdanie zawsze prawdziwe (Y=1) oraz zdanie zawsze fałszywe (Y=0) to bezużyteczne śmieci zarówno w matematyce, jak i w języku potocznym

Dowód na przykładzie.
Rozważmy dwa zbiory:
TP - zbiór trójkątów prostokątnych (TP)
~TP - zbiór trójkątów nieprostokątnych (~TP)
Wspólna dziedzina:
ZWT - zbiór wszystkich trójkątów

Definicja dziedziny w zbiorach:
Zbiór ~TP jest uzupełnieniem zbioru TP do wspólnej dziedziny ZWT oraz zbiory TP i ~TP są rozłączne w dziedzinie ZWT.

Czyli:
Twierdzenie T1:
Dowolny trójkąt jest prostokątny (TP) lub nie jest prostokątny (~TP)
Y = TP+~TP = ZWT =1 - zdanie zawsze prawdziwe (stała binarna)

Twierdzenie T2:
Dowolny trójkąt jest prostokątny (TP) i nie jest prostokątny (~TP)
Y = TP*~TP =[] =0 - zdanie zawsze fałszywe (stała binarna)

Wartość matematyczna twierdzeń T1 i T2 jest zerowa (śmieci).

Analogia do programowania:
Nie da się napisać najprostszego nawet programu dysponując wyłącznie stałymi binarnymi, o z góry wiadomej wartości logicznej.

Definicja bramki logicznej:
Bramka logiczna to układ cyfrowy o n wejściach binarnych {p,q,r..} i tylko jednym wyjściu binarnym Y

Matematycznie zachodzi tożsamość:
funkcja logiczna Y = wyjście bramki logicznej Y

Zwyczajowe zmienne binarne w technice to:
p, q, r … - wejścia bramki logicznej
Y - wyjście bramki logicznej

Przykład:
Y = p*q+~p*~q

1.2.2 Prawo negacji funkcji logicznej Y

Definicja funkcji logicznej w logice dodatniej (bo Y):
Funkcja logiczna Y zapisana jest w logice dodatniej (bo Y) wtedy i tylko wtedy gdy nie jest zanegowana.
W przeciwnym przypadku mamy do czynienia z funkcją logiczną w logice ujemnej (bo ~Y)

Prawo negacji funkcji logicznej Y:
Dowolną funkcję logiczną w logice dodatniej (bo Y) wolno nam dwustronnie zanegować przechodząc do funkcji logicznej w logice ujemnej (bo ~Y) i odwrotnie.

1.2.3 Ogólna definicja logiki matematycznej

Ogólna definicja logiki matematycznej:
Logika matematyczna to matematyczny opis nieznanego tzn. nieznanej przyszłości albo nieznanej przeszłości.
Nie wszystko w czasie przeszłym jest nam wiadome - logika matematyczna służy tu do ustalenia co się w przeszłości zdarzyło

Przykład: Poszukiwanie mordercy
Po długich poszukiwaniach mordercy, Kowalskiemu udowodniono zabójstwo x-a, i się do tego przyznał.
Po co komu potrzebna jest tu dalsza logika matematyczna prowadząca do wykrycia znanego już wszystkim zabójcy x-a?

Stąd mamy:
Prawo Nietoperza:
Jeśli znamy zaistniałe w przeszłości fakty to żadna logika matematyczna ich nie zmieni, jest psu na budę potrzebna.

Przykład:
Hitler - wiemy kim był i co zrobił, to jest fakt, którego żadna logika matematyczna nie zmieni
Nie możemy cofnąć czasu i spowodować by Hitler zginął w zamachu na jego życie przed wybuchem II Wojny Światowej.

1.3 Definicja funkcji logicznej jednoargumentowej Y=x

Prawo Lwa:
Warunkiem koniecznym zrozumienia logiki matematycznej jest jej znajomość na poziomie funkcji logicznych jednoargumentowych.

W najprostszym przypadku mamy do czynienia z funkcją logiczną jednej zmiennej binarnej x
Y=x
Gdzie:
x = {p, ~p, 1, 0}

Definicja funkcji logicznej jednoargumentowej Y=x
Funkcja logiczna jednoargumentowa Y=x to odpowiedź na pytanie o Y.

Kiedy zajdzie Y?
A1.
Y=x
Zajdzie Y wtedy i tylko wtedy gdy zajdzie x
Gdzie:
x = {p, ~p, 1, 0}

Wszystkie możliwe funkcje jednoargumentowe to:
Y=p - transmisja, na wyjściu Y mamy zawsze niezanegowany sygnał p
Y=~p - negacja, na wyjściu Y mamy zawsze zanegowany sygnał p (~p)
Y=1 - stała binarna, na wyjściu Y mamy zawsze 1
Y=0 - stała binarna, na wyjściu Y mamy zawsze 0

1.3.1 Definicja operatora logicznego jednoargumentowego Y|=x

Definicja operatora logicznego jednoargumentowego Y|=x:
Operator logiczny jednoargumentowy Y|=x to układ równań logicznych Y=x i ~Y=~x dający odpowiedź na pytanie kiedy zajdzie Y, a kiedy zajdzie ~Y

Kiedy zajdzie Y?
A1.
Y=x
Zajdzie Y wtedy i tylko wtedy gdy zajdzie x
#
.. a kiedy zajdzie ~Y?
Negujemy dwustronnie jednoargumentową funkcję logiczną A1.
B1.
~Y = ~x
Zajdzie ~Y wtedy i tylko wtedy gdy zajdzie ~x
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

1.3.2 Tabela wszystkich możliwych operatorów jednoargumentowych

Zapiszmy wszystkie możliwe operatory jednoargumentowe w tabeli prawdy
Kod:

TJ
Tabela wszystkich możliwych operatorów jednoargumentowych
Operator transmisji Y|=p
A1:  Y= p         #  B1: ~Y=~p
    ##                   ##
Operator negacji Y=|~p
A2:  Y=~p         #  B2: ~Y= p
    ##                   ##
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
Stąd mamy:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne (Y,~Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

Doskonale widać, że w tabeli TJ definicje obu znaczków # i ## są perfekcyjnie spełnione.

Linie A3B3 i A4B4 to bezcenne zero-jedynkowe definicje praw Prosiaczka.
Znaczenie alternatywne:
Linie A3B3 i A4B4 to stałe binarne, w logice matematycznej totalnie bezużyteczne czego dowód mieliśmy w punkcie 1.2.1

1.4 Prawa Prosiaczka

I Prawo Prosiaczka:
Prawda (=1) w logice dodatniej (bo Y) jest tożsama z fałszem (=0) w logice ujemnej (bo ~Y)
(Y=1) = (~Y=0)
##
II Prawo Prosiaczka:
Fałsz (=0) w logice dodatniej (bo Y) jest tożsamy z prawdą (=1) w logice ujemnej (bo ~Y)
(Y=0) = (~Y=1)
Gdzie:
## - różne na mocy definicji

Prawa Prosiaczka wiążą zmienną binarną w logice dodatniej (bo Y) ze zmienną binarną w logice ujemnej (bo ~Y). Prawa Prosiaczka możemy stosować wybiórczo w stosunku do dowolnej zmiennej binarnej, jak również w stosunku do dowolnej stałej binarnej.

Zapiszmy funkcje logiczne A3 i A4 bo tylko one w prawach Prosiaczka nas interesują
Kod:

TJ34
A3: Y=1  #  B3: ~Y=0
    ##          ##
A4: Y=0  #  B4: ~Y=1
Gdzie:
# - różne w znaczeniu iż jedna strona # jest negację drugiej strony
## - różne na mocy definicji

Definicja znaczka różne #
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##
Dwie funkcje logiczne są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest zaprzeczeniem drugiej.

Doskonale widać, że tabela TJ34 perfekcyjnie spełnia zarówno definicję znaczka różne # jak i definicję znaczka różne na mocy definicji ##

W wierszach A2 i A3 doskonale widać prawa Prosiaczka.

1.4.1 Wyprowadzenie I prawa Prosiaczka

W tym momencie musimy trochę wyprzedzić czas i skorzystać z definicji równoważności p<=>q oraz z prawa Irbisa które poznamy niebawem.

Definicja równoważności p<=>q:
Równoważność p<=>q to jednoczesna prawdziwość twierdzenia prostego p=>q i twierdzenia odwrotnego q=>p
p<=>q = (p=>q)*(q=>p) =1*1 =1

Definicję równoważności p<=>q zna każdy uczeń 7 klasy Szkoły Podstawowej.
Dowód:
Równoważność Pitagorasa:
Trójkąt jest prostokątny wtedy i tylko wtedy <=> gdy zachodzi w nim suma kwadratów
TP<=>SK = (A1: TP=>SK)*(B1: SK=>TP)=1*1=1
A1.
Twierdzenie proste Pitagorasa:
Jeśli trójkąt jest prostokątny to zachodzi w nim suma kwadratów
TP=>SK =1 - udowodnione wieki temu
B1.
Twierdzenie odwrotne Pitagorasa:
Jeśli w trójkącie zachodzi suma kwadratów to ten trójkąt jest prostokątny
SK=>TP =1 - udowodnione wieki temu

Zapiszmy funkcje logiczne A3 i A4 w tabeli prawdy
Kod:

TJ34
A3: Y=1  #  B3: ~Y=0
    ##          ##
A4: Y=0  #  B4: ~Y=1
Gdzie:
# - różne w znaczeniu iż jedna strona # jest negację drugiej strony
## - różne na mocy definicji

I prawo Prosiaczka widać w linii A3B3:

I Prawo Prosiaczka:
A3: (Y=1) # B3: (~Y=0)
Zmienna binarna w logice dodatniej (bo Y) ma wartość logiczną 1 wtedy i tylko wtedy gdy zmienna binarna w logice ujemnej (bo ~Y) ma wartość logiczną 0 (i odwrotnie)
Stąd mamy zapis tożsamy I prawa Prosiaczka:
A3: (Y=1) <=> B3: (~Y=0)

Stąd:
I Prawo Prosiaczka:
A3: (Y=1) <=> B3: (~Y=0) = (A3: (Y=1)=>B3: (~Y=0))*(B3: (~Y=0)=>A3: (Y=1)) =1*1 =1

Twierdzenie proste A3: p=>q brzmi:
A3.
Jeśli A3: (Y=1) to na 100% => B3: (~Y=0)
cnd
Twierdzenie odwrotne B3: q=>p brzmi:
B3.
Jeśli B3: (~Y=0) to na 100% => A3: (Y=1)
cnd

Prawo Irbisa:
Każda równoważność pojęć p<=>q definiuje tożsamość pojęć p=q i odwrotnie
p<=>q [=] p=q

Na mocy prawa Irbisa mamy:
A3: (Y=1) <=> B3: (~Y=0) [=] A3: (Y=1) = B3: (~Y=0)

Definicja tożsamości logicznej [=]:
Prawdziwość dowolnej strony tożsamości logicznej [=] wymusza prawdziwość drugiej strony
Fałszywość dowolnej strony tożsamości logicznej [=] wymusza fałszywość drugiej strony

Tożsame znaczki tożsamości logicznej które możemy używać zamiennie celem precyzyjnego zapisu prawa logicznego np. prawa Irbisa
<=>, „=”, [=]
<=> - wtedy i tylko wtedy

Stąd końcowa postać I prawa Prosiaczka przyjmuje brzmienie.

I Prawo Prosiaczka:
Prawda (=1) w logice dodatniej (bo Y) jest tożsama z fałszem (=0) w logice ujemnej (bo ~Y)
(Y=1) = (~Y=0)

1.4.2 Wyprowadzenie II prawa Prosiaczka

Zapiszmy funkcje logiczne A3 i A4 w tabeli prawdy bo w prawach Prosiaczka tylko one nas interesują
Kod:

TJ34
A3: Y=1  #  B3: ~Y=0
    ##          ##
A4: Y=0  #  B4: ~Y=1
Gdzie:
# - różne w znaczeniu iż jedna strona # jest negację drugiej strony
## - różne na mocy definicji

II prawo Prosiaczka widać w linii A4B4:

II Prawo Prosiaczka:
A4 (Y=0) # B4: (~Y=1)
Zmienna binarna w logice dodatniej (bo Y) ma wartość logiczną 0 wtedy i tylko wtedy gdy zmienna binarna w logice ujemnej (bo ~Y) ma wartość logiczną 1 (i odwrotnie)
Stąd mamy zapis tożsamy II prawa Prosiaczka:
A4: (Y=0) <=> B4: (~Y=1)

Definicja równoważności p<=>q:
Równoważność to jednoczesne zachodzenie twierdzenia prostego p=>q i twierdzenia odwrotnego q=>p
p<=>q = (p=>q)*(q=>p) =1*1 =1

Stąd:
II Prawo Prosiaczka:
A4: (Y=0) <=> B4: (~Y=1) = (A4: (Y=0)=>B4: (~Y=1))*(B4: (~Y=1)=>A4: (Y=0)) =1*1 =1

Twierdzenie proste A4: p=>q brzmi:
A4.
Jeśli A4: (Y=0) to na 100% => B4: (~Y=1)
cnd
Twierdzenie odwrotne B4: q=>p brzmi:
B4.
Jeśli B4: (~Y=1) to na 100% => A4: (Y=0)
cnd

Prawo Irbisa:
Każda równoważność pojęć p<=>q definiuje tożsamość pojęć p=q i odwrotnie
p<=>q [=] p=q

Na mocy prawa Irbisa mamy:
A4: (Y=0) <=> B4: (~Y=1) [=] A4: (Y=0) = B4: (~Y=1)

Definicja tożsamości logicznej [=]:
Prawdziwość dowolnej strony tożsamości logicznej [=] wymusza prawdziwość drugiej strony
Fałszywość dowolnej strony tożsamości logicznej [=] wymusza fałszywość drugiej strony

Tożsame znaczki tożsamości logicznej które możemy używać zamiennie celem precyzyjnego zapisu prawa logicznego np. prawa Irbisa
<=>, „=”, [=]
<=> - wtedy i tylko wtedy

Stąd końcowa postać II prawa Prosiaczka przyjmuje brzmienie.

II Prawo Prosiaczka:
Fałsz (=0) w logice dodatniej (bo Y) jest tożsamy z prawdą (=1) w logice ujemnej (bo ~Y)
(Y=0) = (~Y=1)

1.4.3 Prawa Prosiaczka w bramkach logicznych

Realizacja praw Prosiaczka w bramkach logicznych:
Kod:

I prawo Prosiaczka:
(Y=1)<=>(~Y=0)
        Y=1   ------    <=>  ~Y=0
------------->| #  |o----------------->
              ------
Po minięciu negatora # funkcję Y=1 musimy negować dwustronnie ~Y=0
        ##                    ##
II Prawo Prosiaczka:
(Y=0)<=>(~Y=1)
        Y=0   ------    <=>  ~Y=1
------------->| #  |o----------------->
              ------
Po minięciu negatora # funkcję Y=0 musimy negować dwustronnie ~Y=1
Gdzie:
„o” - symbol negatora (#)
## - różne na mocy definicji

Stąd mamy:

I Prawo Prosiaczka:
Prawda (=1) w logice dodatniej (bo Y) jest tożsama z fałszem (=0) w logice ujemnej (bo ~Y)
(Y=1) = (~Y=0)
##
II Prawo Prosiaczka:
Fałsz (=0) w logice dodatniej (bo Y) jest tożsamy z prawdą (=1) w logice ujemnej (bo ~Y)
(Y=0) = (~Y=1)
Gdzie:
## - różne na mocy definicji
Prawa Prosiaczka możemy stosować wybiórczo w stosunku do dowolnej zmiennej binarnej lub stałej binarnej.

1.4.4 Przykład działania praw Prosiaczka na gruncie fizyki

Przyjmijmy znaczenie symboli:
S - żarówka świeci
~S - żarówka nie świeci

Dowód I prawa Prosiaczka na przykładzie:
Linia A3B3 w tabeli TJ34:
S - żarówka świeci
Co w logice jedynek oznacza:
A3: S=1 - prawdą jest (=1) że żarówka świeci (S)
Zdanie tożsame na mocy prawa Prosiaczka:
(S=1)=(~S=0)
Czytamy:
B3: ~S=0 - fałszem jest (=0) że żarówka nie świeci (~S)
Prawdziwość I prawa Prosiaczka widać tu jak na dłoni:
(S=1) = (~S=0)

##

Dowód II prawa Prosiaczka na przykładzie:
Linia A4B4 w tabeli TJ34:
~S - żarówka nie świeci
Co w logice jedynek oznacza:
B4: ~S=1 - prawdą jest (=1) że żarówka nie świeci (~S)
Zdanie tożsame na mocy prawa Prosiaczka:
(~S=1)=(S=0)
Czytamy:
A4: S=0 - fałszem jest (=0) że żarówka świeci (S)
Prawdziwość II prawa Prosiaczka widać tu jak na dłoni:
(~S=1) = (S=0)

Gdzie:
## - różne na mocy definicji

Innymi słowy:
Pojęcie "żarówka świeci" (S=1) jest różne na mocy definicji ## od pojęcia "żarówka nie świeci" (~S=1)

1.4.5 Dowód praw Prosiaczka na poziomie 3-latka

Dla zrozumienia praw Prosiaczka nie są potrzebne żadne definicje bo to jest matematyczny poziom 3-latka.

I Prawo Prosiaczka:
Prawda (=1) w logice dodatniej (bo p) jest tożsama z fałszem (=0) w logice ujemnej (bo ~p)
(p=1) = (~p=0)
##
II Prawo Prosiaczka:
Prawda (=1) w logice ujemnej (bo ~p) jest tożsama z fałszem (=0) w logice dodatniej (bo p)
(~p=1) = (p=0)
Gdzie:
## - różne na mocy definicji

Prawa Prosiaczka doskonale znają w praktyce wszyscy ludzie na ziemi, od 3-latka poczynając.

Tata i synek Jaś (lat 3) na spacerze w ZOO

Jaś pokazując paluszkiem słonia mówi:
A.
Popatrz tata, to jest słoń!
S=1
Matematycznie:
Prawdą jest (=1) że to jest słoń (S)

Tata:
… a może to nie jest słoń?
Jaś:
B.
Fałszem jest (=0) że to nie jest słoń (~S)
~S=0

Zdania A i B są matematycznie tożsame o czym wie każdy 3-latek, który genialnie posługuje się w praktyce prawami Prosiaczka.

I prawo Prosiaczka:
A: (S=1) = B: (~S=0)

Jaś pokazuje paluszkiem kozę i mówi:
C.
Popatrz tata, to nie jest słoń
~S=1
Matematycznie:
Prawdą jest (=1), że to nie jest słoń

Tata:
… a może to jednak słoń?
Jaś:
D.
Fałszem jest (=0) że to jest słoń
S=0
Zdania C i D są matematycznie tożsame o czym wie każdy 3-latek, który genialnie posługuje się w praktyce prawami Prosiaczka.

II prawo Prosiaczka
C: (~S=1) = D: (S=0)

1.5 logika matematyczna stałych binarnych

Logikę matematyczną stałych binarnych opisują linie A3B3 i A4B4 z pełnej tabeli operatorów jednoargumentowych

Kod:

TJ34 Logika matematyczna stałych binarnych

Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji


1.5.1 Stałe binarne w wieku niemowlęcym

Logika matematyczna niemowlaków 0-2 lat to definiowanie stałych binarnych, które to definicje będą im niezbędne by w wieku 5 lat opanować biegle algebrę Kubusia.

Mama pokazuje 6-miesięcznemu synkowi na obrazku kurę i mówi:
A3.
To jest kura
K=1
Czytamy:
Prawdą jest (=1), że to jest kura (K)

Prawo Prosiaczka:
A3: (K=1) = B3: (~K=0)
B3:
~K=0
Czytamy:
Fałszem jest (=0), że to nie jest kura (~K)

Tożsamość zdań:
A3: (K=1) = B3: (~K=0)
rozumie każdy 5-cio latek
Wniosek:
Prawo Prosiaczka działa fenomenalnie

„To jest kura” z filmu CK Dezerterzy:
[link widoczny dla zalogowanych]
Kod:
https://www.dailymotion.com/video/x14lk01


Czy mama może pokazywać niemowlakowi na obrazku kurę, twierdząc że to jest osioł?
Może, ale wyląduje w szpitalu psychiatrycznym co przydarzyło się von Nogayowi w filmie CK Dezerterzy.

1.5.2 Stałe binarne w wieku 9 miesięcy

Przysłowiowy Jaś zapewne pamięta, jak w wieku 9 miesięcy mama trzymając go na rączkach i pstrykając pstryczkiem elektryczkiem na ścianie pierwszy raz tłumaczyła mu co znaczą pojęcia:
„Żarówka świeci” vs „Żarówka nie świeci”?
Kod:

TJ34
A3.
Żarówka świeci
A3: Y=1
Czytamy:
Prawdą jest (=1), że żarówka świeci (Y)
##
oraz
B4.
Żarówka nie świeci
B4: ~Y=1
Czytamy:
Prawdą jest (=1), że żarówka nie świeci (~Y)
Gdzie:
## - pojęcia różne na mocy definicji

Znaczenie stałej binarnej Y:
Y – żarówka świeci (Y=1)
~Y – żarówka nie świeci (~Y=1)
Jasiowi bardzo się to podobało, bo z zapałem dorwał się do pstryczka elektryczka powtarzając wiele razy:
O, żarówka świeci
A3: Y=1
##
Klikając pstryczkiem kolejny raz mówi:
O, żarówka nie świeci
B4:~Y=1
Gdzie:
## - pojęcia różne na mocy definicji
… i tak w koło Macieju Jaś utrwalił sobie w swoim małym móżdżku dwa, różne na mocy definicji pojęcia ## (stałe binarne):
A3: Y=1 (żarówka świeci Y) ## B4: ~Y=1 (żarówka nie świeci ~Y)
Gdzie:
## - różne na mocy definicji

1.5.3 Stałe binarne w pierwszej klasie LO na lekcji logiki matematycznej

Logikę matematyczną stałych binarnych opisują linie A3B3 i A4B4 z pełnej tabeli operatorów jednoargumentowych
Kod:

TJ34
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Definicja znaczka różne na mocy definicji ##:
Dwa pojęcia są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadne z nich nie jest negacją drugiej.

Doskonale widać, że w tabeli TJ34 znaczek różne na mocy definicji ## jest perfekcyjnie spełniony
Dowód:
Negujemy dwustronnie funkcję logiczną A3: Y=1 lądując w punkcie B3: ~Y=0
Do funkcji logicznej B4: ~Y=1 o znanej zwartości logicznej (stała binarna) matematycznie nie mamy dojścia.

Oczywiście matematycznie zachodzi:
B3: ~Y=0 ## B4: ~Y=1
## - różne na mocy definicji

Uproszczona definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne w tej samej logice (tu ujemnej bo ~Y) są różne na mocy definicji wtedy i tylko wtedy gdy prawe strony tych funkcji nie są tożsame.
Wniosek:
Funkcje logiczne B3 i B4 są różne na mocy definicji ##
cnd

Wykład Prosiaczka, wysłannika 100-milowego lasu w I klasie ziemskiego LO.

Prosiaczek:
Na dzisiejszej lekcji zajmiemy się pojęciem stała binarna definiowanym w tabeli TJ34 wierszami A3B3 oraz A4B4 na przykładzie żarówki, która może świecić (A3: Y=1), albo nie świecić (B4: ~Y=1) - trzeciej możliwości brak.

Definicja stałej binarnej.
Stała binarna to funkcja logiczna {Y,~Y} której wartość logiczna jest nam znana.
Innymi słowy:
Stała binarna to pojęcie {Y,~Y} którego wartość logiczna jest nam znana.

Znaczenie stałej binarnej {Y, ~Y}:
Y – żarówka świeci się (Y=1)
##
~Y – żarówka nie świeci się (~Y=1)
Gdzie:
## - pojęcia różne na mocy definicji

Logika dodatnia w algebrze Kubusia:
Z logiką dodatnią w algebrze Kubusia mamy do czynienia wtedy i tylko wtedy gdy funkcja logiczna Y nie jest zanegowana (Y)
Inaczej mamy do czynienia z logiką ujemną (bo ~Y)
Uwaga:
Wszelkie przeczenia w zdaniach muszą być uwzględnione są w kodowaniu matematycznym zdań.

Przykłady:
A3.
Żarówka świeci się
A3: Y=1 - logika dodatnia (bo Y)
##
B4.
Żarówka nie świeci się
B4: ~Y=1 - logika ujemna (bo ~Y)
Gdzie:
## - pojęcia różne na mocy definicji

Znaczenie zmiennej Y:
Y - żarówka świeci się (Y=1)
~Y - żarówka nie świeci się (~Y=1)
Uwaga:
Jedynki w kodowaniu zdań są domyślne i można je pominąć, co widać wyżej.

Linia A3B3 – stała binarna w logice dodatniej (bo Y):
Prosiaczek pstrykając pstryczkiem elektryczkiem zaświecił żarówkę i mówi:
Jak wszyscy widzą, żarówka świeci się (Y=1)

Zauważmy, że pojęcie „żarówka świeci się” (Y=1) w tabeli TJ34 możemy ulokować wyłącznie w punkcie A3.
A3.
Żarówka świeci się
A3: Y=1 - logika dodatnia (bo Y)
Czytamy:
Prawdą jest (=1) że żarówka świeci się (Y)

Prawo Prosiaczka:
(A3: Y=1) = (B3: ~Y=0)
Stąd na mocy prawa Prosiaczka mamy zdanie tożsame do A3:
B3: ~Y=0
Czytamy:
Fałszem jest (=0), że żarówka nie świeci się (~Y)
Jak widzimy, prawo Prosiaczka działa tu doskonale, zdania A3 i B3 są tożsame:
(A3: Y=1) = (B3: ~Y=0)

##

Linia A4B4 – stała binarna w logice ujemnej (bo ~Y):
Prosiaczek pstrykając pstryczkiem elektryczkiem zgasił żarówkę i mówi:
Jak wszyscy widzą, żarówka nie świeci się (~Y=1)

Zauważmy, że pojęcie „żarówka nie świeci się” (~Y=1) w tabeli TJ34 możemy ulokować wyłącznie w punkcie B4.
B4.
Żarówka nie świeci się
B4: ~Y=1
Czytamy:
Prawdą jest (=1) że żarówka nie świeci się (~Y)

Prawo Prosiaczka:
(B4: ~Y=1) = (A4: Y=0)
Stąd na mocy prawa Prosiaczka mamy zdanie tożsame do B4:
A4: Y=0
Czytamy:
Fałszem jest (=0), że żarówka świeci się (Y)
Jak widzimy, prawo Prosiaczka działa tu doskonale, zdania B4 i A4 są tożsame:
(B4: ~Y=1) = (A4: Y=0)
Gdzie:
## - różne na mocy definicji

1.5.4 Pułapki w operatorach jednoargumentowych

Zadanie:
Dane są trzy zdania „żarówka świeci”:
1.
Żarówka świeci
2.
Jaś wypowiada zdanie „żarówka świeci” gdzie my widzimy żarówkę o której mówi Jaś
3.
Jaś wypowiada zdanie „żarówka świeci” gdzie my nie widzimy żarówki o której mówi Jaś

Rozwiązanie:
W punktach 1 i 2 nie ma mowy by świat martwy (1) albo świat żywy (2) nas okłamał.
Stąd zdanie „żarówka świeci” przyporządkowujemy do punktu A3.
A3: Y=1
Czytamy:
Prawdą jest (=1), że żarówka świeci (Y)
Prawo Prosiaczka:
A3: (Y=1) = B3: (~Y=0)
Stąd zdanie tożsame do A3:
B3: (~Y=0)
Czytamy:
Fałszem jest (=0), że żarówka nie świeci (~S)
Genialność praw Prosiaczka każdy widzi.

W punkcie 3 Jaś ma wolną wolę i może nas okłamywać, zatem zdanie „żarówka świeci” musimy przypisać do punktu A1.
A1.
Jaś mówi „żarówka świeci” (gdzie nie widzimy żarówki o której mówi Jaś)
Y=S
Co w logice jedynek oznacza:
Y=1 <=> S=1
Czytamy:
Jaś mówi prawdę (Y=1) wtedy i tylko wtedy gdy żarówka świeci się (S=1)

… a kiedy Jaś nie mówi prawdy (~Y=1)
Negujemy funkcję A1 stronami:
B1.
~Y=~S
Co w logice jedynek oznacza:
~Y=1 <=> ~S=1
Czytamy:
Jaś nie mówi prawdy (~Y=1) wtedy i tylko wtedy gdy żarówka nie świeci się (~S=1)

1.6 Zasady kodowania zdań w operatorach jednoargumentowych

Kod:

TJ
Tabela wszystkich możliwych operatorów jednoargumentowych
Operator transmisji Y|=p
A1:  Y= p         #  B1: ~Y=~p
    ##                   ##
Operator negacji Y=|~p
A2:  Y=~p         #  B2: ~Y= p
    ##                   ##
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Gdzie:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Uwaga:
Linie A1B1 i A2B2 dotyczą świata żywego w którym kłamstwo (~Y) jest możliwe, zatem tu nie znamy z góry wartości logicznej zdań.
Linie A3B3 i A4B4 dotyczą świata martwego, który z definicji nie może kłamać, zatem tu znamy z góry wartość logiczną zdań 1 albo 0.

1.6.1 Zasady kodowania zdań twierdzących w świecie żywym

Wyłącznie świat żywy ma „wolną wolę” i może kłamać do woli.
Dotyczy wyłącznie linii A1B1 i A2B2 w tabeli TJ

Definicja funkcji logicznej w logice dodatniej (bo Y):
Funkcja logiczna zapisana jest w logice dodatniej (bo Y) wtedy i tylko wtedy gdy nie jest zanegowana.
Inaczej zapisana jest w logice ujemnej (bo ~Y)
Przykłady: tabela TJ

Definicja logiki jedynek w języku potocznym:
Z logiką jedynek w języku potocznym mamy do czynienia wtedy i tylko wtedy gdy wszelkie zmienne występujące w zdaniu sprowadzone są do wartości logicznej 1.
Jedynki są w logice matematycznej domyślne i możemy je pominąć.
Innymi słowy:
Wszelkie przeczenia w kodowaniu matematycznym muszą być zapisane jawnie

Sprowadzenie wszystkich zmiennych do wartości logicznej 1 umożliwiają prawa Prosiaczka które możemy stosować wybiórczo w stosunku do dowolnej zmiennej binarnej lub stałej binarnej.
(p=1)=(~p=0)
(p=0) = (~p=1)

Przykłady:
1.
Jutro nie pójdziemy do kina
Y=~K
Co w logice jedynek oznacza:
Y=1 <=> ~K=1 - to jest logika jedynek bo ~K=1
Prawo Prosiaczka:
(~K=1) = (K=0)
Stąd zapis tożsamy:
Y=1 <=> K=0 - to nie jest logika jedynek bo K=0

2.
Jutro pójdziemy do kina
Y=K
Co w logice jedynek oznacza:
Y=1 <=> K=1 - to jest logika jedynek bo K=1
Prawo Prosiaczka:
(K=1)=(~K=0)
Stąd zapis tożsamy:
Y=1 <=> ~K=0 - to nie jest logika jedynek bo ~K=0

Prawo Żyrafy:
Kodowanie zdań twierdzących:

Wszelkie zdania twierdzące dotyczące świata żywego mającego „wolną wolę” kodujemy matematycznie wyłącznie w postaci funkcji logicznych
Y=f(x)
Gdzie:
Y - istota żywa dotrzyma słowa (Y=1)
~Y - istota żywa nie dotrzyma słowa (~Y=1)
Niedozwolone jest kodowanie zdań twierdzących w postaci samego wyrażenia f(x) bowiem prowadzi to do wewnętrznej sprzeczności logiki matematycznej w postaci prawa Grzechotnika (pkt. 1.7.1)

1.6.2 Funkcja logiczna Y zmiennej binarnej p

Definicja funkcji logicznej Y zmiennej binarnej p:
Funkcja logiczna Y zmiennej binarnej p jest poprawnie zbudowana wtedy i tylko wtedy gdy nie zawiera choćby jednego wartościowania w swoim zapisie.

Dowód przez podanie kontrprzykładu:
To jest poprawnie zbudowana funkcja logiczna Y:
A1: Y=p
Co w logice jedynek oznacza:
A1: Y=1 <=> p=1
Negujemy dwustronnie:
B1: ~Y=~p
Co w logice jedynek oznacza:
B1: ~Y=1 <=> ~p=1

Kontrprzykład:
To jest fałszywa funkcja logiczna Y:
A1: Y=1 <=> p
Negujemy dwustronnie:
B1’: ~Y=0 <=> ~p

Dowód błędności:
B1: ~Y=1 ## B1’: ~Y=0
Gdzie:
## - różne na mocy definicji
cnd

1.6.3 Funkcja logiczna Y stałej binarnej p

Funkcja logiczna Y stałej binarnej p to po prostu prawa Prosiaczka omówione w punkcie 1.4

1.7 Prawo Puchacza dla zdań twierdzących jednoargumentowych
Kod:

TJ
Tabela wszystkich możliwych operatorów jednoargumentowych
Operator transmisji Y|=p
A1:  Y= p         #  B1: ~Y=~p
    ##                   ##
Operator negacji Y=|~p
A2:  Y=~p         #  B2: ~Y= p
    ##                   ##
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Gdzie:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji


Prawo Puchacza dla zdań twierdzących jednoargumentowych w języku potocznym:
Funkcje logiczne Y i ~Y opisujące linię x w tabeli TJ dostępne są tylko i wyłącznie w linii x.
Żadna z tych funkcji nie jest dostępna w jakiejkolwiek linii poza linią x

Dowód formalny:
Wybieramy przykładową funkcję logiczną z linii A2B2:
B2: ~Y=p
Sprawdzamy iż funkcji tej nie ma w żadnej innej linii poza linią A2B2.
itd

1.7.1 Jak działa prawo Puchacza?

Poszczególne zdania związane z tabelą TJ możemy wypowiadać losowo, a kodowanie matematyczne wskaże nam miejsce tego zdania w tabeli TJ.

Wypowiedzmy uporządkowane zdania z tabeli TJ mając świadomość że możemy je losowo przestawiać:

Punkt: A1
Pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K)
Y = K
Punkt: B1
Pani nie dotrzyma słowa (~Y) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K)
~Y = ~K

Punkt: A2
Pani dotrzyma słowa wtedy (Y) i tylko wtedy gdy jutro nie pójdziemy do kina (~K)
Y = ~K
Punkt: B2
Pani nie dotrzyma słowa (~Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K)
~Y = K

Punkt: A3
Żarówka świeci
S=1
Prawdą jest (=1), że żarówka świeci (S)
Punkt: B3
Prawo Prosiaczka:
(A3: S=1) = (B3: ~S=0)
Stąd zdanie tożsame do A3.
Punkt: B3
B3: ~S=0
Fałszem jest (=0), że żarówka nie świeci (~S)
Jak widzimy, prawo Prosiaczka działa doskonale

Punkt: A4
Fałszem jest (=0), że żarówka świcie (S)
S=0
Prawo Prosiaczka:
(A4: S=0)=(B4: ~S=1)
Stąd zdanie tożsame do A4
Punkt: B4
B4: ~S=1
Prawdą jest (=1), że żarówka nie świeci (~S)
Jak widzimy, prawo Prosiaczka działa doskonale

1.7.2 Miękkie jedynki i miękkie zera w logice matematycznej

Definicja miękkiej jedynki w logice matematycznej:
W logice matematycznej jedynka jest miękką jedynką, wtedy i tylko wtedy gdy istnieje iterowanie (losowanie) ustawiające na iterowanej pozycji miękkie zero

Definicja miękkiego zera w logice matematycznej:
W logice matematycznej zero jest miękkim zerem, wtedy i tylko wtedy gdy istnieje iterowanie (losowanie) ustawiające na iterowanej pozycji miękką jedynkę

Weźmy przykładowe zdania z linii A1B1.

Pani w przedszkolu wypowiada obietnicę bezwarunkową:
A1.
Jutro pójdziemy do kina
Y=K
Co w logice jedynek oznacza:
Y=1 <=> K=1
Czytamy
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1)

… a kiedy pani nie dotrzyma słowa (~Y=1)?

#

Negujemy funkcję logiczną A1 stronami.
B1.
~Y=~K
Co w logice jedynek oznacza:
~Y=1 <=> ~K=1
Czytamy:
Pani nie dotrzyma słowa (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1)

Gdzie:
# - funkcje różne w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Wnioski:
1.
Zauważmy, że w linii A1B1 mamy matematyczny związek między zdaniami A1 i B1 w postaci znaczka #
2.
Na mocy prawa Puchacza po wylosowaniu z otaczającego nas świata zdania A1 albo B1 wszelkie inne zdania poza zdaniami z linii A1B1 przyjmą wartość logiczną miękkiego zera (=0), co oznacza, że nie ma żadnych związków matematycznych między linią A1B1 a jakąkolwiek inną linią w tabeli TJ
3.
Co więcej!
Na mocy prawa Puchacza po wylosowaniu z otaczającego nas świata zdania A1 albo B1 wszelkie funkcje logiczne n-argumentowe przyjmą wartość miękkiego zera (=0), co oznacza, że nie ma żadnych matematycznych związków między linią A1B1 a jakąkolwiek inną funkcja n-argumentową.
4.
Definicja miękkiego zera:
Miękkie zero oznacza, że istnieje iterowania (losowanie) dla którego na pozycji miękkiego zera może pojawić się miękka jedynka.
Przykładowo, jeśli wylosujemy zdanie z linii A2B2 to w tej linii będziemy mieli miękkie jedynki, zaś w linii A1B1 będą miękkie zera.

1.8 Funkcje Y=x i operatory Y|=x jednoargumentowe

Z tabeli wszystkich możliwych operatorów jednoargumentowych zajmiemy się wyłącznie liniami A1B1 i A2B2 opisującymi świat żywy mający „wolną wolę”.

1.8.1 Definicja funkcji transmisji Y=p i operatora transmisji Y|=p

Definicja transmitera:
Transmiter to bramka logiczna jednowejściowa gdzie na wyjście Y transmitowany jest zawsze niezanegowany sygnał wejściowy p (Y=p)

Realizacja rzeczywista:
SN7407 (Strona 1: Y=p)
Kod:
https://www.ti.com/lit/ds/symlink/sn7407.pdf


Definicja matematyczna:
Funkcja logiczna transmitera Y=p w logice dodatniej (bo Y) to funkcja definiowana tabelą prawdy:
Kod:

FT
Funkcja transmisji Y=p
Wejście |Wyjście
        | A1:
p # ~p  | Y=p
1 #  0  | 1
0 #  1  | 0
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Na wyjściu Y mamy tu zawsze niezanegowany sygnał p (Y=p)

Definicja operatora transmisji Y|=p:
Operator transmisji Y|=p to układ równań logicznych A1: Y=p i B1: ~Y=~p dający odpowiedź na pytanie o Y i ~Y

Zobaczmy to w tabeli zero-jedynkowej:
Kod:

OT
Definicja operatora transmisji: Y|=p
Wejście    |Wyjście
           | A1:   B1:
   p # ~p  | Y=p # ~Y=~p
A: 1 #  0  | 1   #  0
B: 0 #  1  | 0   #  1
   1    2    3      4
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale tu widać że:
A1:
Y=p
co w logice jedynek oznacza:
Y=1 <=> p=1
#
… kiedy zajdzie ~Y?
Negujemy dwustronnie równanie A1.
B1:
~Y=~p
co w logice jedynek oznacza:
~Y=1 <=> ~p=1

1.8.2 Definicja funkcji negacji Y=~p i operatora negacji Y|=~p

Definicja negatora:
Negator to bramka logiczna jednowejściowa gdzie na wyjście Y transmitowany jest zawsze zanegowany sygnał wejściowy p (Y=~p)

Realizacja rzeczywista:
SN7406 (strona 2: Y=~p)
[link widoczny dla zalogowanych]

Definicja matematyczna:
Funkcja logiczna negatora Y=~p to funkcja definiowana tabelą prawdy:
Kod:

FN
Funkcja negatora Y=~p
Wejście |Wyjście
        | A2:
p # ~p  | Y=~p
1 #  0  | 0
0 #  1  | 1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Na wyjściu Y mamy tu zawsze zanegowany sygnał p (Y=~p)

Definicja operatora negacji Y|=~p:
Operator negacji Y|=~p to układ równań logicznych A2: Y=~p i B2: ~Y=p dający odpowiedź na pytanie o Y i ~Y

Zobaczmy to w tabeli zero-jedynkowej:
Kod:

ON
Definicja operatora negacji: Y|=~p
Wejście    |Wyjście
           | A2:    B2:
   p # ~p  | Y=~p # ~Y=p
A: 1 #  0  | 0    #  1
B: 0 #  1  | 1    #  0
   1    2    3       4
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale tu widać że:
A2:
Y=~p
co w logice jedynek oznacza:
Y=1 <=> ~p=1
#
… kiedy zajdzie ~Y?
Negujemy dwustronnie równanie A2.
B2:
~Y=p
co w logice jedynek oznacza:
~Y=1 <=> p=1

1.8.3 Relacja matematyczna między operatorami Y|=p a Y|=~p

Kod:

OT
Definicja operatora transmisji: Y|=p
Wejście |Wyjście
        | A1:   B1:
p # ~p  | Y=p # ~Y=~p
1 #  0  | 1   #  0
0 #  1  | 0   #  1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

##
Kod:

ON
Definicja operatora negacji: Y|=~p
Wejście |Wyjście
        | A2:    B2:
p # ~p  | Y=~p # ~Y=p
1 #  0  | 0    #  1
0 #  1  | 1    #  0
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Gdzie:
## - różne na mocy definicji

Zapiszmy tabele OT i ON w symbolicznej tabeli prawdy:
Kod:

OTON:
Operator transmisji Y|=p
A1: Y= p # B1: ~Y=~p
    ##         ##
Operator negacji Y|=~p
A2: Y=~p # B2: ~Y= p

Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
Stąd mamy:
Zmienne p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne (Y,~Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

W tabeli OTON widać, że obie definicje znaczków # i ## są perfekcyjnie spełnione.

Doskonale też widać, że wprowadzenie do logiki matematycznej funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) wymusza wprowadzenie do logiki matematycznej znaczków # i ##

1.8.4 Prawo Grzechotnika dla funkcji jednoargumentowych

Film powinien zaczynać się od trzęsienia ziemi, potem zaś napięcie ma nieprzerwanie rosnąć
Alfred Hitchcock.

Kod:

OTON:
A1: Y= p # B1: ~Y=~p
    ##         ##
A2: Y=~p # B2: ~Y= p

Prawo Grzechotnika:
Aktualna, ziemska algebra Boole'a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.

Dowód:
Aktualny rachunek zero-jedynkowy ziemskich matematyków operuje tylko i wyłącznie na wyrażeniach algebry Boole’a, czyli na prawych stronach funkcji logicznych Y i ~Y.
Innymi słowy:
Ziemscy matematycy operując w rachunku zero-jedynkowym wyłącznie na prawych stronach funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) z definicji usuwają zewsząd wszelkie funkcje Y i ~Y.

Usuńmy zatem wszystkie funkcje logiczne Y i ~Y z tabeli OTON
Kod:

OTON”:
A1: p # B1: ~p
   ##       ##
A2:~p # B2:  p

Doskonale widać, że w tabeli OTON" najważniejszy znaczek logiki matematycznej, znaczek różne na mocy definicji ## został zgwałcony, bo ewidentnie zachodzą tożsamości po przekątnych.
W tabeli OTON” zgubiona została kluczowa informacja o tym kiedy zajdzie Y, a kiedy zajdzie ~Y.
To jest dowód wewnętrznej sprzeczności wszelkich ziemskich logik matematycznych.

1.8.5 Prawo Sokoła

Z chwilą zaakceptowania przez ziemskich matematyków algebry Kubusia która widzi funkcje logiczne w logice dodatniej (bo Y) i ujemnej (bo ~Y) prawo Grzechotnika zostanie zastąpione prawem Sokoła.

Prawo Sokoła:
Algebra Kubusia, która widzi funkcje logiczne w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie niesprzeczna na poziomie funkcji logicznych.

1.8.6 Prawo Grzechotnika dla stałych binarnych

Rozważmy przykład:
A3: Y=1 - prawdą jest (=1), że żarówka świeci się (Y)
##
B4: ~Y=1 - prawdą jest (=1), że żarówka nie świeci się (~Y)
Gdzie:
## - pojęcia różne na mocy definicji ##

Zapiszmy wszystkie możliwe operatory jednoargumentowe dotyczące stałych binarnych
Kod:

TJ34
Tabela wszystkich możliwych operatorów jednoargumentowych
Dotycząca stałych binarnych

Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne (Y,~Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

W tabeli TJ34 widać, że obie definicje znaczków # i ## są perfekcyjnie spełnione.

Doskonale też widać, że wprowadzenie do logiki matematycznej funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) wymusza wprowadzenie do logiki matematycznej znaczków # i ##

Definicja stałej binarnej.
Stała binarna to funkcja logiczna {Y,~Y} której wartość logiczna jest nam znana.
Innymi słowy:
Stała binarna to pojęcie {Y,~Y} którego wartość logiczna jest nam znana.

Prawo Grzechotnika:
Aktualna, ziemska algebra Boole'a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.

Dowód:
Aktualny rachunek zero-jedynkowy ziemskich matematyków operuje tylko i wyłącznie na wyrażeniach algebry Boole’a, czyli na prawych stronach funkcji logicznych Y i ~Y.
Innymi słowy:
Ziemscy matematycy operując w rachunku zero-jedynkowym wyłącznie na prawych stronach funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) z definicji usuwają zewsząd wszelkie funkcje Y i ~Y.

Usuńmy zatem wszystkie funkcje logiczne Y i ~Y z tabeli T2.
Kod:

TJ34”.
A3:  1   #  B3: 0
    ##         ##
A4:  0   #  B4: 1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale widać, że w tabeli TJ34" najważniejszy znaczek logiki matematycznej, znaczek różne na mocy definicji ## został zgwałcony, bo ewidentnie zachodzą tożsamości po przekątnych.
W tabeli TJ34” zgubiona została kluczowa informacja o tym kiedy zajdzie Y (żarówka świeci), a kiedy zajdzie ~Y (żarówka nie świeci)
To jest dowód wewnętrznej sprzeczności wszelkich ziemskich logik matematycznych na poziomie funkcji logicznych o znanej wartości logicznej (stałych binarnych)

1.8.7 Prawo Sokoła dla stałych binarnych

Z chwilą zaakceptowania przez ziemskich matematyków algebry Kubusia która widzi funkcje logiczne w logice dodatniej (bo Y) i ujemnej (bo ~Y) prawo Grzechotnika zostanie zastąpione prawem Sokoła.

Prawo Sokoła:
Algebra Kubusia, która widzi funkcje logiczne w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie niesprzeczna na poziomie funkcji logicznych.

1.9 Prawo Grzechotnika na przykładzie zrozumiałym dla 5-cio latka

Definicja standardu dodatniego w języku potocznym człowieka:
W języku potocznym ze standardem dodatnim mamy do czynienia wtedy i tylko wtedy gdy wszelkie przeczenia (~) w zdaniach są uwidocznione w kodowaniu matematycznym tych zdań.
Innymi słowy:
W kodowaniu matematycznym dowolnych zdań z języka potocznego wszystkie zmienne muszą być sprowadzone do logicznych jedynek na mocy prawa Prosiaczka

Przykład konsekwentnego stosowania standardu dodatniego w języku potocznym mamy niżej

Kod:

OT
Definicja operatora transmisji: Y|=p
Wejście |Wyjście
        | A1:   B1:
p # ~p  | Y=p # ~Y=~p
1 #  0  | 1   #  0
0 #  1  | 0   #  1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

##
Kod:

ON
Definicja operatora negacji: Y|=~p
Wejście |Wyjście
        | A2:    B2:
p # ~p  | Y=~p # ~Y=p
1 #  0  | 0    #  1
0 #  1  | 1    #  0
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
Stąd mamy:
Zmienne p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Prawo Grzechotnika:
Aktualna, ziemska algebra Boole'a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.

W niniejszym punkcie zajmiemy się dowodem prawa Grzechotnika dla funkcji jednoargumentowych A1: Y=p i A2: Y=~p na konkretnym przykładzie, doskonale rozumianym przez każdego 5-cio latka.

Zadanko Kubusia:
Dane są dwa zdania pań przedszkolanek z dwóch różnych przedszkoli A1 i A2.

Pani w przedszkolu A1:
A1.
Jutro pójdziemy do kina

Pani w przedszkolu A2:
A2.
Jutro nie pójdziemy do kina

Treść polecenia:
Zapisz w funkcjach logicznych kiedy panie dotrzymają słowa a kiedy skłamią?

Rozwiązanie Jasia, ucznia I klasy LO w 100-milowym lesie.

Przedszkole A1:
Kod:

OT
Definicja operatora transmisji: Y|=p
Wejście |Wyjście
        | A1:   B1:
p # ~p  | Y=p # ~Y=~p
Przykład który za chwilkę zrobimy p=K:
K # ~K  | Y=K # ~Y=~K
1 #  0  | 1   #  0
0 #  1  | 0   #  1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Pani w przedszkolu A1:
A1.
Jutro pójdziemy do kina
Y=K
co w logice jedynek oznacza:
Y=1 <=> K=1 - doskonale to widać w tabeli OT
Czytamy:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1)
#
Kiedy pani nie dotrzyma słowa (~Y=1)?
Negujemy równanie A1 stronami:
B1.
~Y=~K
co w logice jedynek oznacza:
~Y=1 <=> ~K=1 - doskonale to widać w tabeli OT
Czytamy:
Pani nie dotrzyma słowa (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1)

##

Przedszkole A2:
Kod:

ON
Definicja operatora negacji: Y|=~p
Wejście |Wyjście
        | A2:    B2:
p # ~p  | Y=~p # ~Y=p
Przykład który za chwilkę zrobimy p=K:
K # ~K  | Y=~K # ~Y=K
1 #  0  | 0    #  1
0 #  1  | 1    #  0
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Pani w przedszkolu A2:
A2.
Jutro nie pójdziemy do kina
Y=~K
co w logice jedynek oznacza:
Y=1 <=> ~K=1 - doskonale to widać w tabeli ON
Czytamy:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1)
#
Kiedy pani nie dotrzyma słowa (~Y=1)?
Negujemy równanie A2 dwustronnie.
~Y=K
Stąd mamy:
B2.
Pani nie dotrzyma słowa (~Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K)
~Y=K
co w logice jedynek oznacza:
~Y=1 <=> K=1 - doskonale to widać w tabeli ON
Czytamy:
Pani nie dotrzyma słowa (~Y=1) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1)

Gdzie:
Zmienne Y i K muszą być wszędzie tymi samymi zmiennymi, inaczej błąd podstawienia
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Znaczenie zmiennych Y i K w logice dodatniej (bo p) i ujemnej (bo ~p):
Y - pani dotrzyma słowa (Y=1)
~Y - pani nie dotrzyma słowa (~Y=1)
K - jutro pójdziemy do kina (K=1)
~K - jutro nie pójdziemy do kina (~K=1)

Definicja dziedziny D dla zdarzeń:
Dziedzina D dla zdarzeń to zbiór wszystkich możliwych zdarzeń jakie mogą wystąpić
K+~K =D =1 - zdanie zawsze prawdziwe (stała binarna)
K*~K =[] =0 - zdanie zawsze fałszywe (stała binarna)
Zauważmy, że pojęcia K (kino) i ~K (nie kino) nie są zdaniami.
Zdaniami są dopiero funkcje logiczne Y=x
[/code]
Zapiszmy dialogi pań z przedszkola A1 i A2 w tabeli prawdy:
Kod:

T1
Pani w przedszkolu A1:
A1: Y= K   #  B1: ~Y=~K
    ##            ##
Pani w przedszkolu A2:
A2: Y=~K   #  B2: ~Y= K

Definicja znaczka #:
Dowolna strona znaczka # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne (Y,~Y) są różne na mocy definicji wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

W tabeli T1 doskonale widać, że obie definicje znaczków # i ## są perfekcyjnie spełnione.

Jak widzimy wyżej, wprowadzenie do logiki matematycznej funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y) wymusza wprowadzenie do logiki matematycznej znaczków # i ##

1.9.1 Dowód prawa Grzechotnika na poziomie przedszkola

Prawo Grzechotnika:
Aktualna, ziemska algebra Boole'a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.

Dowód:
Aktualny rachunek zero-jedynkowy ziemskich matematyków operuje tylko i wyłącznie na wyrażeniach algebry Boole’a, czyli na prawych stronach funkcji logicznych Y i ~Y.

Doskonale widać, że jeśli z tabeli T1 usuniemy wszystkie funkcje logiczne Y i ~Y zostawiając wyłącznie wyrażenia algebry Boole’a widniejące z prawej strony, to najważniejszy znaczek logiki matematycznej, znaczek różne na mocy definicji ## zostanie zgwałcony bo zachodzić będą tożsamości po przekątnych:
A1: K = B2: K
A2: ~K = B1: ~K

To jest dowód wewnętrznej sprzeczności wszelkich ziemskich logik matematycznych.


Ostatnio zmieniony przez rafal3006 dnia Czw 8:11, 03 Paź 2024, w całości zmieniany 8 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 35257
Przeczytał: 24 tematy

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Sob 11:38, 14 Wrz 2024    Temat postu:

Kompendium algebry Kubusia
Część II Operator dwuargumentowe


Spis treści
1.10 Aksjomatyka algebry Boole’a 2
1.10.1 Aksjomatyka minimalna algebry Boole'a 3
1.11 Sterowanie windą autorstwa 5-cio latków 6
1.12 Algorytm Wuja Zbója przejścia do logiki przeciwnej 9
1.12.1 Prawo Małpki 9
1.13 Równoważność K<=>T w świecie żywym 10
1.14 Definicja spójnika „lub”(+) 11
1.14.1 Definicja operatora „lub”(+) 12
1.14.2 Diagram operatora „lub"(|+) w zdarzeniach niepustych i rozłącznych 12
1.14.3 Definicja spójnika „lub”(+) w zdarzeniach rozłącznych 13
1.14.4 Przykład operatora „lub"(|+) w zdarzeniach niepustych i rozłącznych 14
1.15 Definicja spójnika „i”(*) 16
1.15.1 Definicja operatora „i”(|*) 16
1.15.2 Diagram operatora „i”(|*) w zdarzeniach niepustych i rozłącznych 17
1.15.3 Przykład operatora „i”(|*) w zdarzeniach 18
1.16 Opis tabeli zero-jedynkowej równaniami algebry Boole’a 19
1.16.1 Opis tabeli zero-jedynkowej w logice jedynek 20
1.16.2 Opis tabeli zero-jedynkowej w logice zer 22
1.17 Związek opisu tabel zero-jedynkowych w logice jedynek i w logice zer 23
1.17.1 Prawo Małpki 23
1.17.2 Definicja funkcji alternatywno-koniunkcyjnej 25
1.17.3 Tworzenie tabeli zero-jedynkowej dla funkcji logicznej Y 25
1.18 Funkcje logiczne dwuargumentowe 25
1.18.1 Tabela wszystkich możliwych funkcji dwuargumentowych 27
1.18.2 Tabela wszystkich możliwych operatorów dwuargumentowych 28
1.18.3 Prawo Grzechotnika 30
1.19 Definicja spójników zupełnych w języku potocznym 30
1.19.1 Prawo Puchacza dla spójników zupełnych w języku potocznym 30
1.19.2 Startowa funkcja logiczna 31




1.10 Aksjomatyka algebry Boole’a

Definicja funkcji logicznej Y dwóch zmiennych binarnych p i q:
Funkcja logiczna Y w logice dodatniej (bo Y) dwóch zmiennych binarnych p i q to cyfrowy układ logiczny dający na wyjściu binarnym Y jednoznaczne odpowiedzi na wszystkie możliwe wymuszenia na wejściach p i q.

Definicja znaczka w logice matematycznej:
Znaczek w logice matematycznej to symbol zdefiniowany odpowiednią tabelą zero-jedynkową

W algebrze Kubusia zachodzi tożsamość znaczków:
Spójnik „i”(*) z języka potocznego = bramka AND (*) w technice = koniunkcja (*) w matematyce
Spójnik „lub”(+) z języka potocznego = bramka OR(+) w technice = alternatywa (+) w matematyce
Dowód w pkt. 1.11

Definicje spójników „i”(*) i „lub”(+):

I.
(*) - spójnik „i”(*) z języka potocznego człowieka

Znaczek tożsamy w matematyce:
(*) - znaczek koniunkcji
Znaczek tożsamy w technice:
(*) - bramka logiczna AND

Definicja zero-jedynkowa spójnika „i”(*):
Kod:

   p* q  Y=p*q
A: 1* 1  =1
B: 1* 0  =0
C: 0* 1  =0
D: 0* 0  =0
Definicja spójnika „i”(*) w logice jedynek:
Y=1 <=> p=1 i q=1
inaczej:
Y=0
Definicja spójnika „i”(*) w logice zer:
Y=0 <=> p=0 lub q=0
Inaczej:
Y=1


II.
(+) - spójnik „lub”(+) z języka potocznego człowieka

Znaczek tożsamy w matematyce:
(+) - znaczek alternatywy
Znaczek tożsamy w technice:
(+) - bramka logiczna OR

Definicja zero-jedynkowa spójnika „lub”(+):
Kod:

   p+ q  Y=p+q
A: 1+ 1  =1
B: 1+ 0  =1
C: 0+ 1  =1
D: 0+ 0  =0
Definicja spójnika „lub”(+) w logice jedynek:
Y=1 <=> p=1 lub q=1
inaczej:
Y=0
Definicja spójnika „lub”(+) w logice zer:
Y=0 <=> p=0 i q=0
Inaczej:
Y=1

Uwaga:
Przy wypełnianiu tabel zero-jedynkowych w rachunku zero-jedynkowym nie ma znaczenia którą logiką będziemy się posługiwać. W przypadku spójnika „lub”(+) użycie logiki zer jest najszybszym sposobem wypełnienia wynikowej kolumny zero-jedynkowej.

1.10.1 Aksjomatyka minimalna algebry Boole'a

Definicja minimalnej aksjomatyki algebry Boole’a:
Aksjomatyka minimalna algebry Boole’a to minimalny zestaw definicji i praw algebry Boole’a koniecznych i wystarczających do minimalizacji równań algebry Boole’a.

1.
1=prawda
0=fałsz
Matematyczne związki:
1=~(0)=~0 - prawda (1) to zaprzeczenie (~) fałszu (0)
0=~(1)=~1 - fałsz (0) to zaprzeczenie (~) prawdy (1)

2.
Prawo podwójnego przeczenia:
p =~(~p) - logika dodatnia (bo p) jest tożsama z zanegowaną (~) logiką ujemną (bo ~p)
Prawo zaprzeczenia logiki dodatniej (bo p):
~p=~(p) - logika ujemna (bo ~p) jest tożsama z zanegowaną (~) logiką dodatnią (bo p)

3.
Elementem neutralnym w spójniku „i”(*) jest jedynka
p*1=p - łatwe do zapamiętania przez analogię do zwykłego mnożenia: x*1=x
p+1=1 - to jedyny wyjątek nie mający odpowiednika w zwykłym dodawaniu

4.
Elementem neutralnym w spójniku „lub”(+) jest zero
p+0=p - łatwe do zapamiętania poprzez analogię do zwykłego dodawania: x+0=x
p*0=0 - łatwe do zapamiętania poprzez analogię do zwykłego mnożenia: x*0=0

5.
Definicja dziedziny D w zbiorach:
A: p+~p=D =1 - zbiór ~p jest uzupełnieniem zbioru p do wspólnej dziedziny (D)
B: p*~p=[] =0 - zbiory p i ~p są rozłączne, stąd ich iloczyn logiczny to zbiór pusty []=0
Definicja dziedziny D w zdarzeniach:
C: p+~p=D =1 - zdarzenie ~p jest uzupełnieniem zdarzenia p do wspólnej dziedziny (D)
D: p*~p=[] =0 - zdarzenia p i ~p są rozłączne, stąd ich iloczyn logiczny to zbiór pusty []=0

Przykłady:
5A
Zdanie zawsze prawdziwe w zbiorach:
Dowolna liczba naturalna jest podzielna przez 2 lub nie jest podzielna przez 2
D=LN=[1,2,3,4,5,6,7,8,9..] - zbiór liczb naturalnych, wspólna dziedzina dla P2 i ~P2
P2+~P2=LN =1 - zbiór ~P2=[1,3,5,7,9..] jest uzupełnieniem zbioru P2=[2,4,6,8..] do dziedziny LN
~P2=[LN-P2]=[1,3,5,7,9..] - zbiór liczb naturalnych LN pomniejszony o zbiór liczb parzystych P2
5B.
Zdanie zawsze fałszywe w zbiorach:
Dowolna liczba naturalna jest podzielna przez 2 i nie jest podzielna przez 2
P2*~P2 =[] =0 - zbiory P2=[2,4,6,8..] i ~P2=[1,3,5,7,9..] są rozłączne, stąd ich iloczyn logiczny to 0
Uwaga:
W matematyce zdanie zawsze prawdziwe (5A) i zdanie zawsze fałszywe (5B) to bezużyteczne śmieci.

5C.
Zdanie zawsze prawdziwe w zdarzeniach:
Jutro pójdziemy do kina lub nie pójdziemy do kina
Y = K+~K =D =1 - zdarzenie ~K jest uzupełnieniem zdarzenia K do wspólnej dziedziny D
D={K,~K} - zbiór wszystkich możliwych zdarzeń w dniu jutrzejszym, wspólna dziedzina D
Chwilą czasową jest tu cały jutrzejszy dzień.
5D.
Zdanie zawsze fałszywe w zdarzeniach:
Jutro pójdziemy do kina i nie pójdziemy do kina
Y = K*~K =[] =0 - zdarzenie ~K jest rozłączne ze zdarzeniem K
Chwilą czasową jest tu cały jutrzejszy dzień

6.
Spójniki „i”(*) i „lub”(+) są przemienne
p*q=q*p
p+q=q+p

7.
Prawo redukcji/powielania zmiennych binarnych:
p*p=p
p+p=p

8.
Prawa De Morgana:
p+q = ~(~p*~q)
p*q = ~(~p+~q)

9.
Obsługa wielomianów logicznych jest identyczna jak wielomianów klasycznych pod warunkiem przyjęcia analogii:
Spójnik „lub”(+) to odpowiednik sumy algebraicznej (+) np. x+y
Spójnik „i”(*) to odpowiednik iloczynu algebraicznego (*) np. x*y
Stąd mamy:
Kolejność wykonywania działań w wielomianach logicznych:
przeczenie (~), nawiasy, „i”(*), „lub”(+)
bo robimy analogię do wielomianów klasycznych.

Przykład mnożenia wielomianów logicznych:
Niech będzie dana funkcja logiczna Y:
Y = (p+~q)*(~p+q) - postać koniunkcyjno-alternatywna (koniunkcja alternatyw)
Minimalizujemy:
Y = (p+~q)*(~p+q)
Y = p*~p + p*q +~q*~p + ~q*q - mnożenie logiczne każdego z każdym (jak w matematyce klasycznej)
Y = 0 + p*q + ~q*~p + 0 - prawo algebry Boole'a: x*~x=0
Y = p*q + ~q*~p - prawo algebry Boole'a: x+0=x
Y = p*q + ~p*~q - przemienność x*y=y*x
Stąd:
Nasza funkcja logiczna Y po minimalizacji przybiera postać:
Y = (p+~q)*(~p+q) = p*q + ~p*~q - funkcja alternatywno-koniunkcyjna (alternatywa koniunkcji)

Inny przykład wykorzystania praw algebry Boole’a.
Udowodnij prawo algebry Boole’a:
p + p*q =p
Dowód:
p + p*q = p*1+p*q = p*(1+q) = p*1 =p
Wykorzystane prawa algebry Boole’a:
p=p*1
Wyciągnięcie zmiennej p przed nawias identyczne jak w wielomianach klasycznych
p*(1+q)
1+q =1
p*1=p
cnd

Każde z praw logiki matematycznej można udowodnić w rachunku zero-jedynkowym.
Kod:

Definicja zero-jedynkowa spójnika „lub”(+):
   p+ q  Y=p+q
A: 1+ 1  =1
B: 1+ 0  =1
C: 0+ 1  =1
D: 0+ 0  =0


Przykład 1.
Udowodnij w rachunku zero-jedynkowym prawo rachunku zero-jedynkowego:
p+1 =1
Mamy tu:
p - zmienna binarna, mogąca przyjmować w osi czasu wartości logiczne 1 albo 0.
q=1 - stała binarna, twarda jedynka niezależna od czasu.
Korzystamy z definicji spójnika „lub”(+):
Kod:

Dla p i q=1 mamy:
   p+ q=1  Y=p+1
A: 1+ 1    =1
B: 1+ 1    =1
C: 0+ 1    =1
D: 0+ 1    =1

Stąd mamy dowód prawdziwości prawa rachunku zero-jedynkowego:
p+1 =1
cnd

Przykład 2.
Udowodnij w rachunku zero-jedynkowym prawo algebry Boole’a:
p+~p =1
Korzystamy z definicji spójnika „lub”(+):
Kod:

Dla p i q=~p mamy:
   p+~p  Y=p+~p
A: 1+ 0  =1
B: 1+ 0  =1
C: 0+ 1  =1
D: 0+ 1  =1

Stąd mamy dowód prawdziwości prawa rachunku zero-jedynkowego:
p+~p =1
cnd

Przykład 3.
Udowodnij w rachunku zero-jedynkowym prawo De Morgana dla sumy logicznej „lub”(+):
p+q = ~(~p*~q)
Zaczynamy od definicji spójnika „lub”(+)
Kod:

   p+ q  Y=p+q  ~Y=~(p+q) ~p ~q  ~Y=~p*~q  Y=~(~Y)=~(~p*~q)
A: 1+ 1  =1      =0        0* 0   =0        =1
B: 1+ 0  =1      =0        0* 1   =0        =1
C: 0+ 1  =1      =0        1* 0   =0        =1
D: 0+ 0  =0      =1        1* 1   =1        =0
   1  2   3       4        5  6    7         8
Gdzie:
Y=~(~Y) - prawo podwójnego przeczenia

Tożsamość kolumn wynikowych 3=8 (Y=Y) jest dowodem poprawności prawa De Morgana:
Y = 3: p+q = 8: ~(~p*~q)
#
Tożsamość kolumn wynikowych 4=7 (~Y=~Y) jest dowodem poprawności prawa De Morgana:
~Y = 4: ~(p+q) = 7:~p*~q
Gdzie:
# - różne w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony
cnd

1.11 Sterowanie windą autorstwa 5-cio latków

Rozważmy projektowanie sterowania windą.

Przyjmijmy wejście układu windy:
Na poziomie 5-cio latka zakładamy że winda ma dwa przyciski wejściowe układu (zmienne binarne):
Opis przycisku D=drzwi:
Z=1 - drzwi zamknięte (Z)
~Z=1 - drzwi nie zamknięte (~Z)
Opis przycisku P=piętro:
P=1 - przycisk piętro wciśnięty (P)
~P=1 - przycisk piętro nie wciśnięty (~P)

Przyjmijmy wyjście układu windy:
Wyjście układu opisane jest przez zmienną binarną J=jedzie:
J=1 - winda jedzie (J).
~J=1 - winda nie jedzie (~J)

I.
Pani przedszkolanka do Jasia (lat 5):


Powiedz nam Jasiu kiedy winda jedzie (J=1)?
Jaś:
A1.
Winda jedzie (J=1) wtedy i tylko wtedy gdy drzwi są zamknięte (Z=1) i wciśnięty jest przycisk piętro (P=1)
A1: J=Z*P
co w logice jedynek oznacza:
J=1 <=> Z=1 i P=1
Wniosek:
Jaś zaprojektował sterownie windą w logice dodatniej (bo J)

II.
Pani przedszkolanka do Zuzi (lat 5):


Powiedz nam Zuziu kiedy winda nie jedzie (~J=1)?
Zuzia:
B1.
Winda nie jedzie (~J=1) wtedy i tylko wtedy gdy drzwi nie są zamknięte (~Z=1) "lub"(+) nie jest wciśnięty przycisk piętro (~P=1)
B1: ~J = ~Z + ~P
co w logice jedynek oznacza:
~J=1 = ~Z=1 lub ~P=1
Wniosek:
Zuzia zaprojektowała sterowanie windą w logice ujemnej (bo ~J)

Wnioski końcowe:
Rozwiązania Jasia i Zuzi są matematycznie równoważne bo oczywisty związek logiki dodatniej (bo J) i ujemnej (bo ~J) jest następujący:

Jaś:
A1: J=Z*P
Moja logika dodatnia (bo J) to zanegowana logika ujemna (bo ~J), stąd mamy:
J = ~(~J)
Po podstawieniu:
B1: ~J = ~Z + ~P
Mamy:
J = ~(~Z+~P)
czyli:
A1: J = ~(~Z+~P) = Z*P - prawo De Morgana
cnd

Zuzia:
B1: ~J=~Z+~P
Moja logika ujemna (bo ~J) to zanegowana logika dodatnia (bo J), stąd mamy:
~J = ~(J)
Po podstawieniu:
A1: J=Z*P
Mamy:
~J = ~(Z*P)
czyli:
B1: ~J = ~(Z*P) = ~Z+~P - prawo De Morgana
cnd

Doskonale tu widać, że zarówno Jaś jak i Zuzia (oboje po 5 wiosenek) perfekcyjnie znają algebrę Kubusia bo po prostu pod nią podlegają.

Zachodzi matematyczna tożsamość:
Spójnik „i”(*) z języka potocznego = znana inżynierom bramka AND
Spójnik „lub”(+) z języka potocznego = znana inżynierom bramka OR

Przełożenie powyższych zdań na bramki logiczne jest trywialne:
Wszędzie, gdzie wymawiamy spójnik „i”(*) wstawiamy bramę AND.
Wszędzie, gdzie wymawiamy spójnik „lub”(+) wstawiamy bramkę OR
Kod:

T1
Zdania Jasia i Zuzi przełożone na język bramek logicznych „i”(*) i „lub”(+)
                  -------------
 Z------x-------->|           |
        |         |  „i”(*)   |---x--->  A1: J=Z*P (Jaś)
 P--x------------>|           |   |
    |   |         -------------   |
    |   |                         O = # (negator dwukierunkowy)
    |   |    ~Z   -------------   |
    |   |--O----->|           |   |
    |        ~P   | „lub”(+)  |---x--->  A2: ~J=~Z+~P (Zuzia)
    |------O----->|           |
                  -------------
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
O - negator dwukierunkowy (pkt. 1.1.2)
Zachodzi tożsamość znaczków:
# = O

To jest cała filozofia przełożenia logiki matematycznej Jasia i Zuzi na teorię bramek logicznych.

Uwaga:
W użytecznym sterowaniu trzeba wprowadzić dodatkową zmienną binarną sygnalizującą dojechanie windy na żądane piętro, gdzie winda automatycznie staje i przycisk P (piętro) wyskakuje. Przy zamkniętych drzwiach warunkiem koniecznym kolejnej jazdy jest wciśnięcie piętra różnego od tego, na którym winda aktualnie stoi.

1.12 Algorytm Wuja Zbója przejścia do logiki przeciwnej

Algorytm Wuja Zbója to uproszczony sposób przejścia z logiki dodatniej (bo Y) do logiki ujemnej (bo ~Y) i z powrotem.

Algorytm Wuja Zbója przejścia do logiki przeciwnej:
1.
Y = pq+~p~q - zapis dopuszczalny w technice z pominięciem spójnika „i”(*)
Uzupełniamy brakujące nawiasy i spójniki:
1: Y = (p*q)+(~p*~q) - postać alternatywno-koniunkcyjna (alternatywa koniunkcji)
2.
Przejście do logiki ujemnej (bo ~Y) poprzez negację zmiennych i wymianę spójników
2: ~Y = (~p+~q)*(p+q) - postać koniunkcyjno-alternatywna (koniunkcja alternatyw)
Koniec algorytmu Wuja Zbója

Kolejność wykonywania działań w algebrze Kubusia:
przeczenie (~), nawiasy, spójnik „i”(*), spójnik „lub”(+)

1.12.1 Prawo Małpki

Prawo Małpki:
Każda funkcja alternatywno-koniunkcyjna ma swój tożsamy odpowiednik w postaci funkcji koniunkcyjno-alternatywnej (i odwrotnie)

Dowód na przykładzie:
Definicja równoważności Y=p<=>q w spójnikach „i”(*) i „lub”(+):
1: Y = (p<=>q) = p*q + ~p*~q

Algorytm Wuja Zbója przejścia do logiki przeciwnej:
a)
Uzupełniamy brakujące nawiasy i spójniki:
1: Y = (p*q)+(~p*~q) - postać alternatywno-koniunkcyjna (alternatywa koniunkcji)
b)
Przejście do logiki ujemnej (bo ~Y) poprzez negację zmiennych i wymianę spójników
2: ~Y = (~p+~q)*(p+q) - postać koniunkcyjno-alternatywna (koniunkcja alternatyw)
Koniec algorytmu Wuja Zbója

Zauważmy że:
Jeśli wymnożymy wielomian 2 to otrzymamy tożsamą do niego postać alternatywno-koniunkcyjną.
Zróbmy to:
~Y = (~p+~q)*(p+q) = ~p*p + ~p*q + ~q*p + ~q*q = 0 + ~p*q + p*~q + 0 = p*~q + ~p*q
3: ~Y = (p*~q) + (~p*q) - postać alternatywno-koniunkcyjna (alternatywa koniunkcji)

Dla funkcji logicznej 3 ponownie korzystamy z algorytmu Wuja:
Przejście do logiki dodatniej (bo Y) poprzez negację zmiennych i wymianę spójników:
4: Y = (~p+q)*(p+~q) - funkcja koniunkcyjno-alternatywna (koniunkcja alternatyw)

Stąd mamy:
Kod:

Prawo Małpki:
1:  Y = p* q + ~p*~q <=> 4:  Y = (~p+ q)*(p+~q) – logika dodatnia (bo Y)
    #                        #
3: ~Y = p*~q + ~p* q <=> 2: ~Y = (~p+~q)*(p+ q) – logika ujemna (bo ~Y)
Gdzie:
# - dowolna strona znaczka # jest negację drugiej
p, q, Y muszą być wszędzie tymi samymi p, q, Y inaczej błąd podstawienia

Otrzymane funkcje logiczne Y i ~Y nie są tożsame, czyli:
(Y=~Y) =0
ale związane ze sobą spójnikiem "albo"($)

Definicja spójnika "albo"($) w spójnikach "i"(*) i "lub"(+):
p$q = p*~q + ~p*q - poznamy niebawem
Podstawmy:
p=Y
q=~Y
Y$~Y = (Y)*~(~Y) + ~(Y)*(~Y) = Y*Y + ~Y*~Y = Y+~Y=1

Przykład:
Dowolny człowiek mówi prawdę (P) albo nie mówi prawdy (~P)
P$~P =1
Trzeciej możliwości brak

1.13 Równoważność K<=>T w świecie żywym

Definicja równoważności p<=>q w świecie żywym:
Z równoważnością w świecie żywym mamy do czynienia wtedy i tylko wtedy gdy każde z czterech możliwych zdarzeń {A: p*q, B: p*~q, C: ~p*~q, D: ~p*q} ma szansę przyjąć wartość logiczną jeden

Definicja spójnika „<=> - wtedy i tylko wtedy” wyrażonego spójnikami „i”(*) i „lub”(+):
p<=>q = p*q + ~p*~q

W poprzednim punkcie wyprowadziliśmy wszystkie możliwe funkcje alternatywno-koniunkcyjne i koniunkcyjno-alternatywne związane z równoważnością p<=>q (prawo Małpki).
Podstawmy do tabeli prawdy dla prawa Małpki konkretny przykład.

Przykład:
Pani w przedszkolu wypowiada obietnicę bezwarunkową:
1.
Jutro pójdziemy do kina tylko wtedy gdy pójdziemy do teatru
Innymi słowy:
Jutro pójdziemy do kina (K) wtedy i tylko wtedy gdy pójdziemy do teatru (T)
K<=>T = A: K*T + C: ~K*~T
Podstawmy celem skrócenia zapisów:
Y = K<=>T

Przyjmijmy następujące znaczenie symbolu Y:
Y - pani dotrzyma słowa (Y)
~Y - pani nie dotrzyma słowa (~Y), czyli pani skłamie (S=~Y)

Definicja równoważności w spójnikach „i”(*) i „lub”(+):
1: Y = A: K*T + C: ~K*~T - funkcja alternatywno-koniunkcyjna (alternatywa koniunkcji)
Co w logice jedynek obowiązującej wyłącznie w postaci alternatywno-koniunkcyjnej oznacza:
1: Y=1 <=> A: K=1 i T=1 lub C: ~K=1 i ~T=1
Czytamy:
Prawdą jest (=1) że pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy:
Ya = K*T=1*1 =1 - jutro pójdziemy do kina (K=1) i do teatru (T=1)
lub
Yc = ~K*~T=1*1=1 - jutro nie pójdziemy do kina (~K=1) i nie pójdziemy do teatru (~T=1)
Gdzie:
Y = Ya+Yc - funkcja logiczna Y jest sumą logiczną funkcji cząstkowych Ya+Yc

Jak widzimy, odpowiedź kiedy pani dotrzyma słowa (Y=1) jest intuicyjnie zrozumiała.

Podstawmy nasz przykład do pierwszej linii w prawie Małpki (pkt. 1.12.1)
Kod:

Prawo Małpki:
1:  Y = p* q + ~p*~q <=> 4:  Y = (~p+ q)*(p+~q) – logika dodatnia (bo Y)
Dla p=K (kino) i q=T (teatr) mamy:
1:  Y = K* T + ~K*~T <=> 4:  Y = (~K+ T)*(K+~T) – logika dodatnia (bo Y)
Gdzie:
p, q, Y muszą być wszędzie tymi samymi p, q, Y inaczej błąd podstawienia

W punkcie 4 mamy alternatywną odpowiedź na pytanie kiedy pani dotrzyma słowa (Y=1)?
Zapiszmy tą odpowiedź:
Y=(~K+T)*(K+~T)
Czytamy:
Pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy:
Jutro nie pójdziemy do kina (~K) lub pójdziemy do teatru (T)
(~K+T)
„i”(*)
Jutro pójdziemy do kina (K) lub nie pójdziemy do teatru (~T)
(K+~T)

Doskonale widać, że otrzymaliśmy masakrę, czyli odpowiedź na pytanie kiedy pani dotrzyma słowa (Y), której w języku potocznym żaden człowiek nie rozumie (z matematykiem włącznie).

Wniosek z naszego przykładu to prawo Pandy.

Prawo Pandy:
Jedyną funkcją logiczną zrozumiałą dla każdego człowieka jest funkcja alternatywno-koniunkcyjna

Definicja funkcji alternatywno-koniunkcyjnej:
Funkcja logiczna Y jest w postaci alternatywno-koniunkcyjnej wtedy i tylko wtedy gdy nie zawiera ani jednego członu w postaci koniunkcyjno-alternatywnej.
Inaczej funkcja Y jest w postaci koniunkcyjno-alternatywnej lub mieszanej.

Wniosek:
Wszelkie człony koniunkcyjno-alternatywne w funkcji logicznej Y musimy logicznie wymnożyć przechodząc do postaci alternatywno-koniunkcyjnej, bo tylko taka postać jest zrozumiała dla człowieka.

1.14 Definicja spójnika „lub”(+)

Definicja spójnika „lub”(+):
Definicja spójnika „lub"(+) to odpowiedź na pytanie kiedy zajdzie Y?
Y=p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1

1.14.1 Definicja operatora „lub”(+)

Definicja operatora „lub"(|+):
Operator „lub”(|+) to złożenie funkcji logicznej
1: Y=p+q - w logice dodatniej (bo Y)
oraz funkcji logicznej
2: ~Y=~p*~q - w logice ujemnej (bo ~Y)
dające odpowiedź na pytania o Y i ~Y

Kiedy zajdzie Y?
1.
Y=p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1
Innymi słowy:
Wystarczy, że zajdzie którekolwiek zdarzenie p lub q i już funkcja logiczna Y przybierze wartość logiczną 1, czyli:
Y = p*q + p*~q + ~p*q

#

.. a kiedy zajdzie ~Y?
Negujemy równanie 1 stronami:
2: ~Y=~(p+q)=~p*~q - prawo De Morgana
Stąd mamy:
2.
~Y=~p*~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1
Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

1.14.2 Diagram operatora „lub"(|+) w zdarzeniach niepustych i rozłącznych
Kod:

DL
Diagram operatora „lub"(|+) A1: Y|=p+q w zdarzeniach
--------------------------------------------------------------------------
| D=p*q+p*~q+~p*q+~p*~q=1 - dziedzina, suma logiczna zdarzeń rozłącznych |
--------------------------------------------------------------------------
| p                               |
------------------------------------------------------
                  | q                                |
--------------------------------------------------------------------------
| B: Yb=p*~q      | A: Ya=p*q     | C: Yc=~p*q       | D:~Yd=~p*~q       |
--------------------------------------------------------------------------

Kiedy zajdzie Y?
1.
Y = p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1
Innymi słowy:
Wystarczy że zajdzie cokolwiek (p=1) lub (q=1) i już funkcja logiczna Y przyjmie wartość logiczną (Y=1).
Z diagramu odczytujemy:
Y=Ya+Yb+Yc
Po rozwinięciu mamy:
1": Y = A: p*q + B: p*~q + C: ~p*q
Matematycznie zachodzi tożsamość logiczna [=]:
1. Y = p+q [=] 1”: Y = A: p*q + B: p*~q + C: ~p*q
Doskonale to widać z diagramu DL.

Można to też udowodnić w sposób czysto matematyczny:
1. Y = p+q [=] 1”: Y = A: p*q + B: p*~q + C: ~p*q
Minimalizujemy prawą stronę:
Y = p*q + p*~q + ~p*q
Y = p*(q+~q) + ~p*q
Prawa algebry Boole’a:
q+~q=1
p*1=p
Y = p+(~p*q)
Przejście do logiki ujemnej (bo ~Y) poprzez negacją zmiennych i wymianę spójników:
~Y = ~p*(p+~q)
~Y = ~p*p + ~p*~q
Prawa algebry Boole’a:
wymnożenie wielomianu logicznego
~p*p=0
0+x=x
~Y=~p*~q
Powrót do logiki dodatniej (bo Y) poprzez negację zmiennych i wymianę spójników:
1: Y=p+q
stąd mamy:
1. Y = p+q [=] 1”: Y = A: p*q + B: p*~q + C: ~p*q
cnd


#

… a kiedy zajdzie ~Y?
Negujemy dwustronnie równanie 1.
~Y = ~(p+q) = ~p*~q - prawo De Morgana
Stąd mamy:
2.
~Y=~p*~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1

Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

1.14.3 Definicja spójnika „lub”(+) w zdarzeniach rozłącznych

Do zapamiętania:
Definicja spójnika “lub”(+) w zdarzeniach rozłącznych (patrz wyżej):
p+q = p*q + p*~q + ~p*q

1.14.4 Przykład operatora „lub"(|+) w zdarzeniach niepustych i rozłącznych

Definicja operatora „lub”(|+):
Operator „lub”(|+) to złożenie funkcji logicznej
1: Y=p+q - w logice dodatniej (bo Y)
oraz funkcji logicznej
2: ~Y=~p*~q - w logice ujemnej (bo ~Y)
dające odpowiedź na pytania o Y i ~Y

Pani przedszkolanka:
1.
Jutro pójdziemy do kina (K=1) lub do teatru (T=1)
Y=K+T
co w logice jedynek oznacza:
Y=1 <=> K=1 lub T=1
Czytamy:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1) lub do teatru (T=1)
Innymi słowy:
Prawdą jest (=1), że pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1) lub do teatru (T=1)

Definicja spójnika „lub”(+) w zdarzeniach rozłącznych:
p+q = p*q + p*~q + ~p*q
Podstawiając nasze zdanie 1 mamy:
p=K (kino)
q=T (teatr)
1”: Y = K+T + A: K*T + B: K*~T + C: ~K*T
co w logice jedynek (bo funkcja alternatywno-koniunkcyjna) oznacza:
1”: Y=1 <=> A: K=1 i T=1 lub B: K=1 i ~T=1 lub C: ~K=1 i T=1
Czytamy:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy:
A: Ya = K*T=1*1=1 - jutro pójdziemy do kina (K=1) i pójdziemy do teatru (T=1)
lub
B: Yb = K*~T =1*1 =1 - jutro pójdziemy do kina (K=1) i nie pójdziemy do teatru (~T=1)
lub
C: Yc = ~K*T =1*1 =1 - jutro nie pójdziemy do kina (~K=1) i pójdziemy do teatru (T=1)

Stąd mamy:
Y = Yb+Yc+Yd – funkcja logiczna Y jest sumą logiczną funkcji cząstkowych Ya, Yb, Yc

#
… a kiedy pani nie dotrzyma słowa (~Y=1) = pani skłamie (S=~Y)?
Negujemy równanie 1 dwustronnie:
2: ~Y=~(K+T) = ~K*~T - prawo De Morgana
Stąd mamy:
2.
~Y=~K*~T
co w logice jedynek oznacza:
~Y=1 <=> ~K=1 i ~T=1
Czytamy:
Pani nie dotrzyma słowa (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1) i nie pójdziemy do teatru (~T=1)
Innymi słowy:
Prawdą jest (=1), że pani nie dotrzyma słowa (~Y) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1) i nie pójdziemy do teatru (~T=1)

Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony
Kod:

DL
Diagram operatora "lub"(|+) A1: Y|=K+T w zdarzeniach
--------------------------------------------------------------------------
| D=K*T+K*~T+~K*T+~K*~T=1 - dziedzina, suma logiczna zdarzeń możliwych   |
--------------------------------------------------------------------------
| p=[K]                           |
------------------------------------------------------
                  | q=[T]                            |
--------------------------------------------------------------------------
| B: Yb=p*~q= K*~T| A: Ya=p*q=K*T | C: Yc=~p*q=~K*T  | D:~Yd=~p*~q=~K*~T |
--------------------------------------------------------------------------

Zauważmy, że wszystkie możliwe zdarzenia ABCD są rozłączne i niepuste oraz uzupełniają się wzajemnie do dziedziny.

Dziedziną dla naszego przykładu jest zbiór wszystkich możliwych zdarzań niepustych i rozłącznych które jutro mogą wystąpić:
D = |Ya|+|Yb|+|Yc|+|Yd|
Gdzie:
|Yx| - funkcja logiczna Yx z pominięciem przeczenia
Stąd mamy:
Y = A: p*q + B: p*~q + C: ~p*q + D: ~p*~q
Minimalizujemy:
Y = p*(q+~q) + ~p*(q+~q)
Y = p+~p =1
Dziedzina jest poprawna.
cnd

W dniu jutrzejszym ma szansę wystąpić wyłącznie jedno z powyższych zdarzeń niepustych i rozłącznych.
Dla naszego przykładu mamy:
1.
Kiedy jutro pani dotrzyma słowa (Y) = pani nie skłamie (Y=~S)?
Y=Ya+Yb+Yc
Zdarzenia cząstkowe to:
Ya = K*T =1*1=1
Możliwe jest (=1) zdarzenie: jutro pójdziemy do kina (K=1) i do teatru (T=1)
Pani dotrzyma słowa (Ya=1)
lub
B:
Yb = K*~T=1*1=1
Możliwe jest (=1) zdarzenie: jutro pójdziemy do kina (K=1) i nie pójdziemy do teatru (~T=1)
Pani dotrzyma słowa (Yb=1)
lub
C:
Yc = ~K*T =1*1=1
Możliwe jest (=1) zdarzenie: jutro nie pójdziemy do kina (~K=1) i pójdziemy do teatru (T=1)
Pani dotrzyma słowa (Yc=1)

… a kiedy pani nie dotrzyma słowa (~Y=1)?
2.
Pani nie dotrzyma słowa (~Y=1) tylko w jednym przypadku:
D:
~Yd = ~K*~T =1*1=1
Możliwe jest (=1) zdarzenie: jutro nie pójdziemy do kina (~K=1) i nie pójdziemy do teatru (~T=1)
Pani nie dotrzyma słowa (~Yd=1)

Doskonale widać, że zdarzenia A, B, C i D są niepuste i rozłączne tzn. żadne z tych zdarzeń nie może zajść jednocześnie z innym zdarzeniem.

1.15 Definicja spójnika „i”(*)

Definicja spójnika „i”(*):
Definicja spójnika „i”(*) to odpowiedź na pytanie kiedy zajdzie Y?
Y=p*q
co w logice jedynek oznacza:
Y=1 <=> p=1 i q=1

1.15.1 Definicja operatora „i”(|*)

Definicja operatora „i”(|*):
Operator „i”(|*) to złożenie funkcji logicznej
1: Y=p*q w logice dodatniej (bo Y)
oraz funkcji logicznej 2: ~Y=~p+~q w logice ujemnej (bo ~Y)
dające odpowiedź na pytanie o Y i ~Y

Kiedy zajdzie Y?
1.
Y=p*q
co w logice jedynek oznacza:
Y=1 <=> p=1 i q=1
#
.. a kiedy zajdzie ~Y?
Negujemy równanie 1 stronami:
2: ~Y=~(p*q)=~p+~q - prawo De Morgana
Stąd mamy:
2.
~Y=~p+~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 lub ~q=1
Innymi słowy:
Pozostałe przypadki niepuste i rozłączne, poza funkcją logiczną Y=p*q muszą być zapisane w logice ujemnej (bo ~Y).

Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

1.15.2 Diagram operatora „i”(|*) w zdarzeniach niepustych i rozłącznych

Stąd mamy:
Kod:

DI
Diagram operatora „i”(|*) A1: Y|=p*q w zdarzeniach
--------------------------------------------------------------------------
| D=p*q+p*~q+~p*q+~p*~q=1 - dziedzina, suma logiczna zdarzeń rozłącznych |
--------------------------------------------------------------------------
| p                               |
------------------------------------------------------
                  | q                                |
--------------------------------------------------------------------------
| B:~Yb=p*~q      | A: Ya=p*q     | C:~Yc=~p*q       | D:~Yd=~p*~q       |
--------------------------------------------------------------------------

Kiedy zajdzie Y?
1.
Y = p*q
co w logice jedynek oznacza:
Y=1 <=> p=1 i q=1
bo w równaniach alternatywno-koniunkcyjnych jedynki są domyślne.

#

… a kiedy zajdzie ~Y?
Negujemy dwustronnie równanie 1.
~Y = ~(p*q) = ~p+~q - prawo De Morgana
Stąd mamy:
2.
~Y=~p+~q
Innymi słowy:
Wystarczy że zajdzie cokolwiek (~p=1) lub (~q=1) i już funkcja logiczna ~Y przyjmie wartość logiczną (~Y=1).
Z diagramu DI odczytujemy:
~Y=~Yb+~Yc+~Yd
Po rozwinięciu mamy:
2": ~Y = B: p*~q + C: ~p*q + D: ~p*~q
Matematycznie zachodzi tożsamość logiczna [=]:
2: ~Y = ~p+~q [=] 2": ~Y = B: p*~q + C: ~p*q + D: ~p*~q
Doskonale to widać z diagramu DI.

Można to też udowodnić w sposób czysto matematyczny:
2": ~Y = B: p*~q + C: ~p*q + D: ~p*~q
Minimalizujemy prawą stronę:
~Y = p*~q + ~p*(q+~q)
~Y = ~p+(p*~q)
Przejście do logiki dodatniej (bo Y) poprzez negacją zmiennych i wymianę spójników:
Y = p*(~p+q)
Y = p*~p + p*q
Y = p*q
Powrót do logiki ujemnej (bo ~Y) poprzez negację zmiennych i wymianę spójników:
2: ~Y = ~p+~q
stąd mamy:
2: ~Y = ~p+~q [=] 2": ~Y = B: p*~q + C: ~p*q + D: ~p*~q
cnd

Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

1.15.3 Przykład operatora „i”(|*) w zdarzeniach

Definicja operatora „i”(|*):
Operator „i”(|*) to złożenie funkcji logicznej
1: Y=p*q w logice dodatniej (bo Y)
oraz funkcji logicznej
2: ~Y=~p+~q w logice ujemnej (bo ~Y)
dające odpowiedź na pytanie o Y i ~Y

Pani przedszkolanka:
1.
Jutro pójdziemy do kina (K=1) i do teatru (T=1)
Y=K*T
co w logice jedynek oznacza:
Y=1 <=> K=1 i T=1
Czytamy:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1) i do teatru (T=1)
Innymi słowy:
Prawdą jest (=1), że pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1) i do teatru (T=1)

#
… a kiedy pani nie dotrzyma słowa (~Y=1) = pani skłamie (S=~Y)?
Negujemy równanie 1 dwustronnie:
BCD:
2: ~Y=~(K*T) = ~K+~T - prawo De Morgana
Stąd mamy:
2.
~Y=~K+~T
co w logice jedynek oznacza:
~Y=1 <=> ~K=1 lub ~T=1
Czytamy:
BCD:
Pani nie dotrzyma słowa (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1) lub nie pójdziemy do teatru (~T=1)
Innymi słowy:
Prawdą jest (=1), że pani nie dotrzyma słowa (~Y) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1) lub nie pójdziemy do teatru (~T=1)

Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Matematycznie oznacza to, że jutro nie pójdziemy w dowolne miejsce i już pani nie dotrzyma słowa (~Y=1), czyli:
~Y=B: K*~T + C: ~K*T + D:~K*~T
co w logice jedynek oznacza:
~Y=1 <=> B: K=1 i ~T=1 lub C: ~K=1 i T=1 lub D: ~K=1 i ~T=1
bo w równaniu alternatywno-koniunkcyjnym wszystkie zmienne sprowadzone są do jedynek.
Czytamy:
Pani nie dotrzyma słowa (~Y=1) wtedy i tylko wtedy gdy:
B: ~Yb = K*~T=1*1=1 - jutro pójdziemy do kina (K=1) i nie pójdziemy do teatru (~T=1)
lub
C: ~Yc = ~K*T =1*1 =1 - jutro nie pójdziemy do kina (~K=1) i pójdziemy do teatru (T=1)
lub
D: ~Yd = ~K*~T =1*1 =1 - jutro nie pójdziemy do kina (~K=1) i nie pójdziemy do teatru (~T=1)
Kod:

D1
Diagram operatora „i”(|*) A1: Y|=K*T w zdarzeniach
--------------------------------------------------------------------------
| D=K*T+K*~T+~K*T+~K*~T=1 - dziedzina, suma logiczna zdarzeń możliwych   |
--------------------------------------------------------------------------
| p=[K]                           |
------------------------------------------------------
                  | q=[T]                            |
--------------------------------------------------------------------------
| B:~Yb=p*~q= K*~T| A: Ya=p*q=K*T | C:~Yc=~p*q=~K*T  | D:~Yd=~p*~q=~K*~T |
--------------------------------------------------------------------------


1.16 Opis tabeli zero-jedynkowej równaniami algebry Boole’a

Algebra Boole’a akceptuje wyłącznie pięć znaczków: {0, 1, „nie”(~), „i”(*), „lub”(+)}

Definicja standardu dodatniego w języku potocznym człowieka:
W języku potocznym ze standardem dodatnim mamy do czynienia wtedy i tylko wtedy gdy wszelkie przeczenia w zdaniach są uwidocznione w kodowaniu matematycznym tych zdań.

Logiką matematyczną zrozumiałą dla każdego człowieka (od 5-cio latka poczynając) są wyłącznie równania alternatywno-koniunkcyjne w których wszystkie zmienne sprowadzone są do jedynek na mocy prawa Prosiaczka.

Weźmy zero-jedynkową definicję równoważności p<=>q:
Kod:

T1
          Y=
   p   q p<=>q
A: 1<=>1  =1
B: 1<=>0  =0
C: 0<=>0  =1
D: 0<=>1  =0


Definicja pełnej tabeli zero-jedynkowej:
Pełna tabela zero-jedynkowa układu logicznego (bramka logiczna) to zero-jedynkowy zapis wszystkich sygnałów wejściowych w postaci niezanegowanej (p, q, r..) i zanegowanej (~p, ~q, ~r..) oraz zapis wyjścia Y również w postaci niezanegowanej (Y) i zanegowanej (~Y).

Algorytm przejścia z dowolnej tabeli zero-jedynkowej do jej opisu w spójnikach „i”(*) i „lub”(+):

1.
Tworzymy pełną definicję tabeli zero-jedynkowej, czyli:

Zapisujemy wszelkie zmienne po stronie wejścia p i q w postaci niezanegowanej i zanegowanej.
Do wyjścia Y również dopisujemy postać zanegowaną ~Y
W powstałej tabeli tworzymy równania cząstkowe dla wszystkich linii.

2.
SD - standard dodatni języka potocznego = logika jedynek

W logice jedynek opisujemy wyłącznie jedynki gdzie w poziomie używamy spójnika „i”(*) zaś w pionie spójnika „lub”(+)
Logika jedynek prowadzi do równań alternatywno-koniunkcyjnych zgodnych z naturalną logika matematyczną człowieka, co oznacza, że będą one rozumiane w języku potocznym przez wszystkich ludzi, od 5-cio latka poczynając.

3.
SU - standard ujemny (niezrozumiały dla człowieka) = logika zer

W logice zer opisujemy wyłącznie zera gdzie w poziomie używamy spójnika „lub”(+) zaś w pionie spójnika „i”(*)
Logika zer prowadzi do równań koniunkcyjno-alternatywnych totalnie niezrozumiałych w języku potocznym. Z tego względu zawsze wymnażamy wielomian koniunkcyjno-alternatywny przechodząc do tożsamej postaci alternatywno-koniunkcyjnej.

1.16.1 Opis tabeli zero-jedynkowej w logice jedynek

Dla wyjaśnienia zagadnienia posłużymy się zero-jedynkową tabelą równoważności p<=>q:
Kod:

T1
          Y=
   p   q p<=>q
A: 1<=>1  =1
B: 1<=>0  =0
C: 0<=>0  =1
D: 0<=>1  =0

SD - standard dodatni języka potocznego = logika jedynek:
W logice jedynek opisujemy wyłącznie jedynki gdzie w poziomie używamy spójnika „i”(*) zaś w pionie spójnika „lub”(+)
Logika jedynek prowadzi do równań alternatywno-koniunkcyjnych zgodnych z naturalną logika matematyczną człowieka, co oznacza, że będą one rozumiane w języku potocznym przez wszystkich ludzi, od 5-cio latka poczynając.

Zastosujmy logikę jedynek do tabeli zero-jedynkowej równoważności Y = p<=>q:
Kod:

T2
Pełna definicja     |Co w logice jedynek |Równania
zero-jedynkowa Y    |oznacza             |cząstkowe
                    |                    |
   p  q ~p ~q  Y ~Y |                    |
A: 1  1  0  0 =1 =0 | Ya=1<=> p=1 i  q=1 | Ya= p* q
B: 1  0  0  1 =0 =1 |~Yb=1<=> p=1 i ~q=1 |~Yb= p*~q
C: 0  0  1  1 =1 =0 | Yc=1<=>~p=1 i ~q=1 | Yc=~p*~q
D: 0  1  1  0 =0 =1 |~Yd=1<=>~p=1 i  q=1 |~Yd=~p* q
   1  2  3  4  5  6   a       b      c     d   e  f


Kiedy zajdzie Y?
Z tabeli równań cząstkowych def odczytujemy:
1: Y = Ya+Yc
Po rozwinięciu mamy sumę logiczną zdarzeń rozłącznych:
1: Y = A: p*q + C: ~p*~q
T2_1:
Y= p*q + ~p*~q
co w logice jedynek oznacza:
Y=1 <=> A: p=1 i q=1 lub C: ~p=1 i ~q=1
#
Kiedy zajdzie ~Y?
Z tabeli równań cząstkowych def otrzymujemy:
2: ~Y=~Yb+~Yd
Po rozwinięciu mamy sumę logiczną zdarzeń rozłącznych:
2: ~Y = B: p*~q + D: ~p*q
T2_2:
~Y = p*~q + ~p*q
co w logice jedynek oznacza:
~Y=1 <=> B: p=1 i ~q=1 lub D: ~p=1 i q=1
Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Zauważmy, że możliwe jest szybsze wygenerowania równań algebry Boole’a w logice jedynek z pominięciem bloku abc.
Kod:

T2
Pełna definicja     |Równania cząstkowe
zero-jedynkowa Y    |w logice jedynek
                    |
   p  q ~p ~q  Y ~Y |
A: 1  1  0  0 =1 =0 | Ya= p* q
B: 1  0  0  1 =0 =1 |~Yb= p*~q
C: 0  0  1  1 =1 =0 | Yc=~p*~q
D: 0  1  1  0 =0 =1 |~Yd=~p* q
   1  2  3  4  5  6   d   e  f


Definicja logiki 5-cio latka:
Logika 5-cio latka w definicji operatora logicznego Y|=f(x) wyrażonego spójnikami „i”(*) i „lub”(+) to logika jedynek gdzie finalnie otrzymujemy odpowiedzi na pytania o Y i ~Y w funkcjach alternatywno-koniunkcyjnych, doskonale rozumianych przez każdego 5-cio latka (pkt. 1.11)


1.16.2 Opis tabeli zero-jedynkowej w logice zer

Dla wyjaśnienia zagadnienia posłużymy się zero-jedynkową tabelą równoważności p<=>q:
Kod:

T1
          Y=
   p   q p<=>q
A: 1<=>1  =1
B: 1<=>0  =0
C: 0<=>0  =1
D: 0<=>1  =0

SU - standard ujemny (niezrozumiały dla człowieka) = logika zer.
W logice zer opisujemy wyłącznie zera gdzie w poziomie używamy spójnika „lub”(+) zaś w pionie spójnika „i”(*)
Logika zer prowadzi do równań koniunkcyjno-alternatywnych totalnie niezrozumiałych w języku potocznym.

Zastosujmy logikę zer do tej samej tabeli zero-jedynkowej równoważności Y = p<=>q:
Kod:

T3
Pełna definicja     |Co w logice zer       |Równania
zero-jedynkowa Y    |oznacza               |cząstkowe
                    |                      |
   p  q ~p ~q  Y ~Y |                      |
A: 1  1  0  0 =1 =0 |~Ya=0<=>~p=0 lub ~q=0 |~Ya=~p+~q
B: 1  0  0  1 =0 =1 | Yb=0<=>~p=0 lub  q=0 | Yb=~p+ q
C: 0  0  1  1 =1 =0 |~Yc=0<=> p=0 lub  q=0 |~Yc= p+ q
D: 0  1  1  0 =0 =1 | Yd=0<=> p=0 lub ~q=0 | Yd= p+~q
   1  2  3  4  5  6   a       b        c     d   e  f


Kiedy zajdzie Y?
Z tabeli równań cząstkowych def odczytujemy:
3: Y = Yb*Yd - spójnik „i”(*) bo opis tabeli zero-jedynkowej w logice ujemnej
Po rozwinięciu mamy:
3. Y = (B: ~p+q)*(D: p+~q)
T3_3:
Y = (~p+q)*(p+~q)
co w logice zer oznacza:
Y=0 <=> (B: ~p=0 lub q=0)*(D: p=0 lub ~q=0)
#
Kiedy zajdzie ~Y?
Z tabeli równań cząstkowych def odczytujemy:
4: ~Y = ~Ya*~Yc - spójnik „i”(*) bo opis tabeli zero-jedynkowej w logice ujemnej
Po rozwinięciu mamy:
4: ~Y = (A: ~p+~q)*(C: p+q)
T3_4:
~Y = (~p+~q)*(p+q)
co w logice zer oznacza:
~Y=0 <=> (A: ~p=0 lub ~q=0)*(C: p=0 lub q=0)
Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Zauważmy, że możliwe jest szybsze wygenerowania równań algebry Boole’a w logice zer z pominięciem bloku abc.
Kod:

T3
Pełna definicja     |Równania cząstkowe
zero-jedynkowa Y    |w logice zer
                    |
   p  q ~p ~q  Y ~Y |
A: 1  1  0  0 =1 =0 |~Ya=~p+~q
B: 1  0  0  1 =0 =1 | Yb=~p+ q
C: 0  0  1  1 =1 =0 |~Yc= p+ q
D: 0  1  1  0 =0 =1 | Yd= p+~q
   1  2  3  4  5  6   d   e  f


Definicja logiki diabła:
Logika diabła w definicji operatora logicznego Y|=f(x) wyrażonego spójnikami „i”(*) i „lub”(+) to logika zer gdzie finalnie otrzymujemy odpowiedzi na pytania o Y i ~Y w funkcjach koniunkcyjno-alternatywnych, totalnie niezrozumiałych przez człowieka (pkt. 1.13)

Z tego względu w języku potocznym zawsze wymnażamy wielomian koniunkcyjno-alternatywny przechodząc do tożsamej postaci alternatywno-koniunkcyjnej.

1.17 Związek opisu tabel zero-jedynkowych w logice jedynek i w logice zer

Zapiszmy symbolicznie tabelę T2 i T3 jedna pod drugą:

Tabela T2
Logika jedynek = logika 5-cio latka:
T2_1: Y= p*q + ~p*~q - funkcja alternatywno-koniunkcyjna (alternatywa koniunkcji)
#
T2_2: ~Y = p*~q + ~p*q - funkcja alternatywno-koniunkcyjna (alternatywa koniunkcji)

Tabela T3
Logika zer = logika Diabła:
T3_3: Y = (~p+q)*(p+~q) - funkcja koniunkcyjno-alternatywna (koniunkcja alternatyw)
#
T3_4: ~Y = (~p+~q)*(p+q) - funkcja koniunkcyjno-alternatywna (koniunkcja alternatyw)

Uzasadnienie nazwy „logika 5-cio latka” i „logika Diabła” znajdziemy w punkcie 1.13 gdzie mamy dowód na przykładzie iż w języku potocznym:
1.
Funkcje alternatywno-koniunkcyjne są doskonale rozumiane przez każdego człowieka od 5-cio latka poczynając
2.
Funkcji koniunkcyjno-alternatywnych żaden człowiek nie rozumie od 5-cio latka poczynając na matematyku kończąc.

1.17.1 Prawo Małpki

Prawo Małpki:
Każda funkcja alternatywno-koniunkcyjna ma swój tożsamy odpowiednik w postaci funkcji koniunkcyjno-alternatywnej (i odwrotnie)

Dowód:
Funkcje Y i ~Y w tabelach T2 i T3 dotyczą tej samej tabeli zero-jedynkowej, stąd zachodzą tożsamości logiczne:
Kod:

T2_1: Y= p* q+ ~p*~q = T3_3: Y=(~p+ q)*( p+~q)
      #                      #
T2_2:~Y= p*~q+ ~p* q = T3_4:~Y=(~p+~q)*( p+ q)

Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Otrzymane funkcje logiczne Y i ~Y nie są tożsame:
(Y=~Y) =0
ale związane ze sobą spójnikiem "albo"($)

Definicja spójnika "albo"($) w spójnikach "i"(*) i "lub"(+):
p$q = p*~q + ~p*q – poznamy niebawem (pkt. 7.0)
Podstawmy:
p=Y
q=~Y
Y$~Y = (Y)*~(~Y) + ~(Y)*(~Y) = Y*Y + ~Y*~Y = Y+~Y=1

Przykład:
Dowolny człowiek mówi prawdę (P) albo nie mówi prawdy (~P)
P$~P =1
Trzeciej możliwości brak

Definicja tożsamości logicznej <=>:
Prawdziwość dowolnej strony tożsamości logicznej <=> wymusza prawdziwość drugiej strony
Fałszywość dowolnej strony tożsamości logicznej <=> wymusza fałszywość drugiej strony

W algebrze Kubusia zachodzą tożsamości znaczków:
<=>, „=”, [=] - tożsame znaczki tożsamości logicznej

Wisienka na torcie:
Dowód braku tożsamości:
(Y=~Y) =0

Prawo Irbisa dla zbiorów/zdarzeń (pkt. 2.9):
Dowolna równoważność prawdziwa p<=>q definiuje tożsamość zbiorów/zdarzeń p=q i odwrotnie.
Stąd mamy:
p=q <=> A1B3: (p<=>q) = (A1: p=>q)*(B3: q=>p) =1*1=1

Definicja równoważności p<=>q w spójnikach "i"(*) i "lub"(+):
Y = p<=>q = p*q + ~p*~q
Podstawmy:
p=Y, q=~Y
stąd mamy:
Y = (Y<=>~Y) = (Y)*(~Y) + ~(Y)* ~(~Y) = Y*~Y + ~Y*Y = 0+0 =0
Stąd:
Na mocy prawa Irbisa nie zachodzi (=0) tożsamość:
(Y=~Y) =0

1.17.2 Definicja funkcji alternatywno-koniunkcyjnej

Definicja funkcji alternatywno-koniunkcyjnej:
Funkcja logiczna Y ma postać alternatywno-koniunkcyjną wtedy i tylko wtedy gdy nie zawiera ani jednego członu w postaci koniunkcyjno-alternatywnej.
Inaczej funkcja Y ma postać koniunkcyjno-alternatywną lub mieszaną

Logiką zrozumiałą dla człowieka jest wyłącznie postać alternatywno-koniunkcyjna (dowód w pkt. 1.13) gdzie wszystkie zmienne na mocy prawa Prosiaczka sprowadzone są do logicznych jedynek.

Prawo Małpiątka:
Jeśli w dowolnym równaniu algebry Boole'a napotkamy fragment koniunkcyjno-alternatywny to ten fragment wymnażamy logicznie przechodząc do funkcji alternatywno-koniunkcyjnej

1.17.3 Tworzenie tabeli zero-jedynkowej dla funkcji logicznej Y

Zadanie:
Utwórz tabelę zero-jedynkową dla poniższej funkcji alternatywno-koniunkcyjnej:
Y = (p<=>q) = p*q +~p*~q
co w logice jedynek (bo funkcja alternatywno-koniunkcyjna) oznacza:
Y=1 <=> p=1 i q=1 lub ~p=1 i ~q=1

Stąd w punktach A5 i C5 w pełnej tabeli zero-jedynkowej stawiamy jedynki
Kod:

Pełna tabela zero-jedynkowa
   p  q ~p ~q  Y ~Y
A: 1  1  0  0  1
B: 1  0  0  1
C: 0  0  1  1  1
D: 0  1  1  0
   1  2  3  4  5  6

Mamy wszystko, dalsze wypełnianie pełnej tabeli zero-jedynkowej to komputerowy automat na mocy definicji negacji, nic a nic nie trzeba myśleć.
Kod:

T1
   p  q ~p ~q  Y ~Y
A: 1  1  0  0  1  0
B: 1  0  0  1  0  1
C: 0  0  1  1  1  0
D: 0  1  1  0  0  1
   1  2  3  4  5  6


1.18 Funkcje logiczne dwuargumentowe

Definicja funkcji logicznej Y dwóch zmiennych binarnych p i q:
Funkcja logiczna Y=f(p,q) w logice dodatniej (bo Y) dwóch zmiennych binarnych p i q to cyfrowy układ logiczny dający na wyjściu binarnym Y jednoznaczne odpowiedzi na wszystkie możliwe wymuszenia na wejściach p i q.

Definicja operatora logicznego dwuargumentowego Y|=f(p,q) w spójnikach "i"(*) i "lub"(+):
Operator logiczny dwuargumentowy Y|=f(p,q) wyrażony spójnikami "i”(*) i "lub"(+) to układ równań logicznych 1 i 2 dający odpowiedź na pytanie o Y i ~Y
1.
Y=f(p,q)
.. a kiedy zajdzie ~Y?
#
Negujemy funkcję logiczną 1 dwustronnie:
2.
~Y=~f(p,q)

Przykład:
1.
Y = p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1
bo w równaniach alternatywno-koniunkcyjnych jedynki są domyślne.
#
2.
… a kiedy zajdzie ~Y?
Negujemy dwustronnie równanie 1:
~Y = ~(p+q) = ~p*~q - na mocy prawa De Morgana.
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1
bo w równaniach alternatywno-koniunkcyjnych jedynki są domyślne.
Gdzie:
# - różne, w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Wszystkie możliwe wymuszenia binarne (dwuwartościowe) na wejściach p i q dla funkcji logicznej w logice dodatniej (bo Y) to:
Kod:

T1
Wszystkie możliwe wymuszenia binarne na wejściach p i q
dla funkcji logicznej w logice dodatniej (bo Y)
   p  q  Y=f(p,q)
A: 1  1  x
B: 1  0  x
C: 0  1  x
D: 0  0  x
Gdzie:
x={0,1}
Y - funkcja logiczna
f(p,q) - wyrażenie algebry Boole’a

Z definicji funkcji logicznej Y wynika, że możliwe jest szesnaście i tylko szesnaście różnych na mocy definicji ## funkcji logicznych dwuargumentowych w logice dodatniej (bo Y).
Funkcje te definiujemy tabelą prawdy pokazującą wszystkie możliwe wspólne wymuszenia na wejściach p i q oraz wszystkie możliwe, różne na mocy definicji ## odpowiedzi na wyjściu Y.

Każda ze zmiennych binarnych {p, q, Y} może występować w logice dodatniej (bo x) albo w logice ujemnej (bo ~x). Oczywistym jest, że zmienna binarna w logice dodatniej (bo x) wymusza zmienną binarną w logice ujemnej (bo ~x), albo odwrotnie.
Na dowolny układ cyfrowy można zatem spojrzeć w logice dodatniej (bo Y) albo w logice ujemnej (bo ~Y).
Kod:

T2
Wymuszenia binarne w logice dodatniej {p, q, Y}
wymuszają logikę ujemną {~p, ~q, ~Y) i odwrotnie.
   p  q  Y=f(p,q)  #  ~p ~q  ~Y=~f(p,q)
A: 1  1  x         #   0  0 ~(x)
B: 1  0  x         #   0  1 ~(x)
C: 0  1  x         #   1  0 ~(x)
D: 0  0  x         #   1  1 ~(x)
Gdzie:
x={0,1}
f(p,q) - wyrażenie algebry Boole’a
Y=f(p,q) # ~Y=~f(p,q)
# - różne, w znaczeniu iż dowolna strona # jest negacją drugiej strony
Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
~q=~(q)
Stąd mamy:
p, q, Y muszą być wszędzie tymi samymi p, q, Y inaczej błąd podstawienia


1.18.1 Tabela wszystkich możliwych funkcji dwuargumentowych

W tabeli wszystkich możliwych dwuargumentowych funkcji logicznych TF2 (niżej) po raz pierwszy w historii ludzkości zdefiniowano wszystkie występujące w logice matematycznej, elementarne znaczki logiczne.
Kod:

TF2
Tabela prawdy wszystkich możliwych dwuargumentowych funkcji logicznych Y
w logice dodatniej (bo Y)
        |Grupa I        |Grupa II       |Grupa III             | Grupa IV
        |Spójniki „i”(*)|Spójniki =>, ~>|Spójniki <=>, $       | Wejścia
        |oraz „lub”(+)  ||=>, |~>       ||~~>, |~~~>           | p i q
        | Y  Y |  Y  Y  | Y  Y   Y   Y  |  Y    Y   Y      Y   | Y  Y  Y  Y
   p  q | *  + | ~* ~+  | => ~> |=> |~> | <=>   $  |~~>   |~~~>| p  q ~p ~q
A: 1  1 | 1  1 |  0  0  | 1  1   0   0  |  1    0   1      0   | 1  1  0  0
B: 1  0 | 0  1 |  1  0  | 0  1   0   1  |  0    1   1      0   | 1  0  0  1
C: 0  1 | 0  1 |  1  0  | 1  0   1   0  |  0    1   1      0   | 0  1  1  0
D: 0  0 | 0  0 |  1  1  | 1  1   0   0  |  1    0   1      0   | 0  0  1  1
          A  A    A  A    A  A   A   A     A    A   A      A     A  A  A  A
          0  1    2  3    4  5   6   7     8    9  10     11    12 13 14 15

Definicja znaczka różne na mocy definicji ## w logice dodatniej (bo Y):
Dwie funkcje logiczne Y w logice dodatniej (bo Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy dla identycznych wymuszeń na wejściach p i q:
p - w logice dodatniej (bo p)
oraz
q - w logice dodatniej (bo q)
mają różne kolumny wynikowe Y w logice dodatniej (bo Y).
Doskonale widać, że wszystkie funkcje Y w tabeli TF2 spełniają definicję znaczka różne na mocy definicji ## w logice dodatniej (bo Y)

Poprawność powyższej definicji łatwo sprawdzić w laboratorium bramek logicznych:
1.
Budujemy 16 różnych na mocy definicji ## bramek logicznych definiowanych tabelą TF0-15
2.
Wybieramy dowolne dwie różne bramki łącząc galwanicznie ich wyjścia Y.
Na wspólnych wejściach p i q wybranych bramek wymuszamy wszystkie możliwe kombinacje zero-jedynkowe ABCDpq.
3.
Pewne jest, że w laboratorium zobaczymy kupę dymu i smrodu co jest dowodem różności na mocy definicji ## wybranych bramek.

Prawo negacji funkcji logicznej:
Dowolną funkcję logiczną mamy prawo dwustronnie zanegować przechodząc do logiki przeciwnej.

1.18.2 Tabela wszystkich możliwych operatorów dwuargumentowych

Definicja operatora logicznego Y|=f(x) w spójnikach "i"(*) i "lub"(+):
Operator logiczny Y|=f(x) to układ równań logicznych dający odpowiedź na pytanie o Y i ~Y.

Zastosujmy prawo negacji funkcji logicznej do tabeli TF2
Kod:

TF0-15
-------------------------------------------------------------------
TF0-3
Grupa spójników „i”(*) oraz „lub”(+) w logice dodatniej (bo Y)
oraz w logice ujemnej (bo ~Y)
A0:  Y=p*q  "i"(*) w j. potocznym   # B0:  ~Y=~( p* q) =~p+~q
     ##                                     ##
A1:  Y=p+q  "lub"(+) w j. potocznym # B1:  ~Y=~( p+ q) =~p*~q
     ##                                     ##
A2:  Y=~(p*q)=~p+~q NAND w technice # B2:  ~Y=~(~p+~q) = p* q
     ##                                     ##
A3:  Y=~(p+q)=~p*~q NOR w technice  # B3:  ~Y=~(~p*~q) = p+ q
     ##
--------------------------------------------------------------------
TF4-5
Grupa warunków wystarczających p=>q i koniecznych p~>q:
Definicja warunku wystarczającego p=>q:
A4:  Y = (p=>q) = ~p+q              # B4:  ~Y=~(p=>q) = p*~q
     ##                                     ##
Definicja warunku koniecznego p~>q:
A5:  Y = (p~>q) = p+~q              # B5:  ~Y=~(p~>q) =~p* q
     ##                                     ##
--------------------------------------------------------------------
TF6-7
Grupa spójników implikacyjnych p|=>q i p|~>q:
Definicja implikacji prostej p|=>q:
A6:  Y = p|=>q  =~p* q              # B6:  ~Y=~(p|=>q)= p+~q
     ##                                     ##
Definicja implikacji odwrotnej p|~>q:
A7:  Y = p|~>q  = p*~q              # B7:  ~Y=~(p|~>q)=~p+ q
     ##                                     ##
--------------------------------------------------------------------
TF8-9
Grupa spójników równoważnościowych p<=>q i p$q
Definicja równoważności p<=>q:
A8:  Y = p<=>q = ~(p$q) =p*q+~p*~q  # B8:  ~Y=~(p<=>q)=(p$q)=p*~q+~p*q
     ##                                     ##
Definicja spójnika „albo”($):
A9:  Y = p$q = ~(p<=>q)=p*~q+~p*q   # B9:  ~Y=~(p$q) =(p<=>q)=p*q+~p*~q
     ##                                     ##
--------------------------------------------------------------------
TF10-11
Grupa spójników chaosu p|~~>q:
Definicja chaosu (zdanie zawsze prawdziwe): Y=p|~~>q=1:
A10: Y=p|~~>q=(p+q+~p*~q)=1         # B10: ~Y=~(p|~~>q)=(p+q)*~(p+q)=0
     ##                                     ##
Definicja śmierci (zdanie zawsze fałszywe): Y=p|~~~>q=0:
A11: Y =p|~~~>q = (p+q)*~(p+q)=0    # B11: ~Y=~(p|~~~>q)=(p+q+~p*~q)=1
     ##
--------------------------------------------------------------------
TF12-15
Grupa spójników jednoargumentowych w logice dodatniej (bo Y)
oraz w logice ujemnej (bo ~Y)
     ##                                    ##
A12: Y = p                          # B12:~Y=~p
     ##                                    ##
A13: Y = q                          # B13:~Y=~q
     ##                                    ##
A14: Y =~p                          # B14:~Y= p
     ##                                    ##
A15: Y =~q                          # B15:~Y= q
Gdzie:
#  - różne w znaczeniu iż dowolna strona # jest negacją drugiej strony
## - różne na mocy definicji funkcji logicznych
Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
~q=~(q)
Stąd mamy:
p, q, Y muszą być wszędzie tymi samymi p, q, Y inaczej błąd podstawienia

Funkcje logiczne Y w logice dodatniej (bo Y) w ilości 16 sztuk (A0-A15) to funkcje różne na mocy definicji ##.

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne (Y,~Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest zaprzeczeniem drugiej.

Doskonale widać, że w tabeli TF0-15 definicje obu znaczków # i ## są perfekcyjnie spełnione.

1.18.3 Prawo Grzechotnika

Prawo Grzechotnika:
Ziemska algebra Boole’a która nie widzi funkcji logicznych w logice dodatniej (bo Y) i ujemnej (bo ~Y) jest wewnętrznie sprzeczna na poziomie funkcji logicznych.

Dowód tego faktu dla tabeli TF0-15 znajdziemy w punkcie 24.7

1.19 Definicja spójników zupełnych w języku potocznym

Definicja spójników zupełnych w języku potocznym:
Spójniki zupełne w języku potocznym (w tym w matematyce i fizyce) to spójniki "i"(*) i "lub"(+) przy pomocy których można zdefiniować każdą z 16 możliwych funkcji logicznych w logice dodatniej (bo Y) oraz w logice ujemnej (bo ~Y) widocznych w tabeli TF0-15.

Jedynymi spójnikami zupełnymi w logice matematycznej zgodnymi z językiem potocznym 5-cio latków są spójniki z algebry Boole'a:
(+) - spójnik "lub"(+) zgodny z językiem potocznym
(*) - spójnik "i"(*) zgodny z językiem potocznym

1.19.1 Prawo Puchacza dla spójników zupełnych w języku potocznym

Prawo Puchacza dla spójników zupełnych w języku potocznym:
Funkcje logiczne Y i ~Y opisujące linię x w tabeli TF0-15 dostępne są tylko i wyłącznie w linii x.
Żadna z tych funkcji nie jest dostępna w jakiejkolwiek linii poza linią x

W tabeli TF0-15 widać, że dowolna linia tej tabeli jest różna na mocy definicji ## od jakiejkolwiek innej linii w tej tabeli.

Definicja operatora logicznego Y|=f(x)w spójnikach "i"(*) i "lub"(+):
Operator logiczny Y|=f(x) to układ równań logicznych dający odpowiedź na pytanie o Y i ~Y.

Rozważmy sztandarowy przykład:

I.
Definicja operatora "lub"(|+) A1B1:


Patrz tabela TF0-15:
A1
Definicja spójnika "lub"(+):
Y = p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1
#
… a kiedy zajdzie ~Y
Negujemy dwustronnie 1:
B1.
~Y=~p*~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1

Gdzie:
# - różne w znaczeniu iż dowolna strona znaczka # jest negacją drugiej strony

Łatwo sprawdzić w tabeli TF0-15, iż przykładowa funkcja logiczna w logice dodatniej (bo Y):
A1.
Definicja spójnika "lub"(+):
Y = p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1
należy tylko i wyłącznie do operatora "lub"(|+) (A1B1) nie należąc do jakiegokolwiek innego operatora zdefiniowanego w tabeli TF0-15.

Łatwo też sprawdzić w tabeli TF0-15, iż przykładowa funkcja logiczna w logice ujemnej (bo ~Y):
B1.
~Y=~p*~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1
należy tylko i wyłącznie do operatora "lub"(|+) (A1B1) nie należąc do jakiegokolwiek innego operatora zdefiniowanego w tabeli TF0-15.

1.19.2 Startowa funkcja logiczna

Definicja startowej funkcji logicznej:
Startowa funkcja logiczna to funkcja opisująca zdanie startowe wypowiedziane przez człowieka, od którego zaczynamy analizę.

Przykład:
Pani przedszkolanka:
1.
Jutro pójdziemy do kina lub do teatru
Y=K+T
co w logice jedynek (naturalna logika człowieka) oznacza:
Y=1 <=> K=1 lub T=1
Czytamy:
Prawdą jest (=1) że pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1) lub pójdziemy do teatru (T=1)
#
.. a kiedy pani nie dotrzyma słowa (~Y=1)?
Negujemy funkcję startową 1 dwustronnie.
~Y=~(K+T) = ~K*~T - prawo De Morgana
stąd mamy:
2.
~Y=~K*~T
co w logice jedynek oznacza:
~Y=1 <=> ~K=1 i ~T=1
Czytamy:
Prawdą jest (=1), że pani nie dotrzyma słowa (~Y) wtedy i tylko wtedy gdy jutro nie pójdziemy do kina (~K=1) i nie pójdziemy do teatru (~T=1)
Znaczenie zmiennej Y:
Y - pani dotrzyma słowa (Y=1)
~Y - pani nie dotrzyma słowa (~Y=1)

Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale widać, że funkcją startową jest tu funkcja:
1: Y=K+T


Ostatnio zmieniony przez rafal3006 dnia Pią 22:36, 18 Paź 2024, w całości zmieniany 12 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 35257
Przeczytał: 24 tematy

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Sob 12:09, 14 Wrz 2024    Temat postu:

Kompendium algebry Kubusia
Część III Kwintesencja algebry Kubusia. Część 1

Spis treści
2.0 Kwintesencja algebry Kubusia 2
2.1 Skorowidz definicji implikacyjnych algebry Kubusia 2
2.2 Elementarne spójniki implikacyjne w zdarzeniach 2
2.2.1 Definicja zdarzenia możliwego ~~> 2
2.2.2 Definicja warunku wystarczającego => w zdarzeniach 3
2.2.3 Definicja warunku koniecznego ~> w zdarzeniach 4
2.2.4 Definicja kontrprzykładu w zdarzeniach 6
2.3 Elementarne spójniki implikacyjne w zbiorach 6
2.3.1 Definicja elementu wspólnego zbiorów ~~> 7
2.3.2 Definicja warunku wystarczającego => w zbiorach 7
2.3.3 Definicja warunku koniecznego ~> w zbiorach 8
2.3.4 Definicja kontrprzykładu w zbiorach 9
2.4 Rachunek zero-jedynkowy warunków wystarczających => i koniecznych ~> 10
2.5 Prawa algebry Kubusia wynikłe z rachunku zero-jedynkowego 13
2.5.1 Definicje znaczków # i ## 15
2.6 Fundamentalne definicje i prawa algebry Kubusia 16
2.6.1 Prawa Sowy 16
2.6.2 Definicja tożsamości logicznej 16
2.6.3 Definicja dowodu "nie wprost" w algebrze Kubusia 17
2.6.4 Prawa Prosiaczka 17
2.7 Prawo Kłapouchego - kluczowe prawo logiki matematycznej 17
2.7.1 Definicja podstawowego spójnika implikacyjnego 17
2.7.2 Prawo Kłapouchego i prawo Kameleona w implikacji prostej p|=>q 18
2.7.3 Prawo Kłapouchego w implikacji odwrotnej p|~>q 20
2.7.4 Nietrywialny błąd podstawienia ### 21
2.8 Prawa Słonia 22
2.8.1 Prawo Słonia dla zbiorów 23
2.8.2 Prawo Słonia dla zdarzeń 25
2.9 Prawo Irbisa 26
2.9.1 Prawo Irbisa dla zbiorów 26
2.9.2 Prawo Irbisa dla zdarzeń 28


2.0 Kwintesencja algebry Kubusia

Niniejszy punkt to kwintesencja algebry Kubusia zawierająca wszystkie potrzebne definicje i prawa algebry Kubusia konieczne i wystarczające do zrozumienia matematycznej obsługi zdań warunkowych "Jeśli p to q" zarówno na gruncie teorii zdarzeń, jak i na gruncie teorii zbiorów.

2.1 Skorowidz definicji implikacyjnych algebry Kubusia

Definicja spójnika implikacyjnego:
Spójnik implikacyjny to spójnik związany w obsługą zdań warunkowych "Jeśli p to q" definiowanych warunkami wystarczającymi => i koniecznymi ~>

Definicje spójników implikacyjnych w algebrze Kubusia mają układ trzypoziomowy {1=>2=>3}:
1.
Elementarne spójniki logiczne w zdarzeniach:

~~> - spójnik zdarzenia możliwego (2.2.1)
=> - warunek wystarczający (2.2.2)
~> - warunek konieczny (2.2.3)
Elementarne spójniki logiczne w zbiorach:
~~> - element wspólny zbiorów (2.3.1)
=> - warunek wystarczający tożsamy z relacją podzbioru =>(2.3.2)
~> - warunek konieczny tożsamy z relacją nadzbioru ~>(2.3.3)
2.
Podstawowe spójniki implikacyjne definiowane spójnikami elementarnymi:

|=> - implikacja prosta (2.12)
|~> - implikacja odwrotna (2.13)
<=> - równoważność (2.14)
|~~> - chaos (2.15)
3.
Operatory implikacyjne definiowane podstawowymi spójnikami implikacyjnymi

||=> - operator implikacji prostej (2.12.1)
||~> - operator implikacji odwrotnej (2.13.1)
|<=> - operator równoważności (2.14.1)
||~~> - operator chaosu (2.15.1)

2.2 Elementarne spójniki implikacyjne w zdarzeniach

Cała logika matematyczna w obsłudze zdań warunkowych „Jeśli p to q” stoi na zaledwie trzech elementarnych znaczkach (~~>, =>, ~>) definiujących wzajemne relacje zdarzeń/zbiorów p i q

2.2.1 Definicja zdarzenia możliwego ~~>

Definicja zdarzenia możliwego ~~>:
Jeśli zajdzie p to może ~~> zajść q
p~~>q =p*q =1
Definicja zdarzenia możliwego ~~> jest spełniona (=1) wtedy i tylko wtedy gdy możliwe jest jednoczesne zajście zdarzeń p i q.
Inaczej:
p~~>q=p*q =[] =0

Decydujący w powyższej definicji jest znaczek zdarzenia możliwego ~~>, dlatego dopuszczalny jest zapis skrócony p~~>q.
Uwaga:
Na mocy definicji zdarzenia możliwego ~~> badamy możliwość zajścia jednego zdarzenia, nie analizujemy tu czy między p i q zachodzi warunek wystarczający => czy też konieczny ~>.
Kod:

Zero-jedynkowa definicja zdarzenia możliwego ~~>:
   p  q p~~>q = p*q + p*~q + ~p*~q + ~p*q
A: 1  1  =1
B: 1  0  =1
C: 0  0  =1
D: 0  1  =1
Interpretacja:
p~~>q=p*q=1 - wtedy i tylko wtedy
              gdy możliwe jest jednoczesne ~~> zajście zdarzeń p i q
Inaczej:
p~~>q=p*q=0

Przykład:
Jeśli jutro będzie pochmurno (CH) to może ~~> nie padać (~P)
CH~~>~P=CH*~P =1
Możliwe jest (=1) zdarzenie: są chmury (CH) i nie pada (~P)

2.2.2 Definicja warunku wystarczającego => w zdarzeniach

Definicja warunku wystarczającego => w zdarzeniach:
Jeśli zajdzie p to zajdzie q
p=>q =1
Definicja warunku wystarczającego => jest spełniona (=1) wtedy i tylko wtedy gdy zajście zdarzenia p jest wystarczające => dla zajścia zdarzenia q
Inaczej:
p=>q =0

Definicja warunku wystarczającego => dla potrzeb rachunku zero-jedynkowego:
p=>q = ~p+q

Przykład:
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
P=>CH =1
Padanie jest (=1) warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury

W zapisie formalnym mamy tu:
p=P (pada)
q=CH (chmurka)
Gdzie:
p - przyczyna (część zdania po "Jeśli …")
q - skutek (część zdania po "to…")

Podsumowując:
Kod:

Definicja warunku wystarczającego =>:
Zapis formalny:
A1: p=>q =~p+q
Zapis aktualny (przykład):
A1: p=P
A1: q=CH
A1: P=>CH=~P+CH

Można łatwo udowodnić, iż zdarzenie P (pada) jest podzbiorem => zdarzenia CH (chmury).

Dowód:
Matematycznie zachodzi tożsamość:
Warunek wystarczający => = relacja podzbioru =>
p=>q
1.
Prawo algebry Boole'a:
p=p*1
q=q*1
Stąd mamy:
p*1=>q*1
2.
Korzystamy z definicji wspólnej dziedziny dla p i q:
p+~p=D =1
q+~q=D =1
Stąd mamy wyprowadzone.
Prawo Orła:
p*(q+~q) => q*(p+~p)
3.
Wymnażamy wielomiany logiczne:
p*q + p*~q => p*q + ~p*q
Gdzie:
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Nasz przykład:
p=P(pada)
q=CH(chmury)
Podstawiając do 3 mamy:
4.
P*CH + P*~CH => P*CH + ~P*CH
Badamy możliwość ~~> wystąpienia wszystkich zdarzeń:
P*CH=1 - możliwe jest (=1) zdarzenie: P(pada) i są CH(chmury)
P*~CH=0 - niemożliwe jest (=0) zdarzenie: P(pada) i nie ma chmur (~CH)
~P*CH=1 - możliwe jest (=1) zdarzenie: nie pada (~P) i są chmury (CH)
Stąd:
P*CH => P*CH + ~P*CH
bo x+0=x - prawo algebry Boole'a
Doskonale tu widać, że zdarzenie P*CH jest podzbiorem => zdarzenia (P*CH + ~P*CH)

2.2.3 Definicja warunku koniecznego ~> w zdarzeniach

Definicja warunku koniecznego ~> w zdarzeniach:
Jeśli zajdzie p to zajdzie q
p~>q =1
Definicja warunku koniecznego ~> jest spełniona (=1) wtedy i tylko wtedy gdy zajście zdarzenia p jest konieczne ~> dla zajścia zdarzenia q
Inaczej:
p~>q =0

Definicja warunku koniecznego ~> dla potrzeb rachunku zero-jedynkowego:
p~>q = p+~q

Przykład:
B1.
Jeśli jutro będzie pochmurno (CH) to może ~> padać (P)
CH~>P =1
Chmury (CH) są (=1) konieczne ~> dla padania (P), bo padać może wyłącznie z chmurki.

W zapisie formalnym mamy tu:
p=CH (chmurka)
q=P (pada)
Gdzie:
p - przyczyna (część zdania po "Jeśli …")
q - skutek (część zdania po "to…")

Podsumowując:
Kod:

Definicja warunku koniecznego ~>:
Zapis formalny:
B1: p~>q = p+~q
Zapis aktualny (przykład):
B1: p=CH
B1: q=P
B1: CH~>P=CH+~P

Można łatwo udowodnić, iż zdarzenie CH (chmury) jest nadzbiorem ~> zdarzenia P (pada)

Dowód:
Matematycznie zachodzi tożsamość:
Warunek konieczny ~> = relacja nadzbioru ~>
p~>q
1.
Prawo algebry Boole'a:
p=p*1
q=q*1
Stąd mamy:
p*1~>q*1
2.
Korzystamy z definicji wspólnej dziedziny dla p i q:
p+~p=D =1
q+~q=D =1
stąd mamy wyprowadzone.
Prawo Orła:
p*(q+~q) ~> q*(p+~p)
3.
Wymnażamy wielomiany logiczne:
p*q + p*~q ~> p*q + ~p*q
Gdzie:
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Nasz przykład:
p=CH(chmury)
q=P(pada)
Podstawiając do 3 mamy:
4.
CH*P + CH*~P ~> CH*P + ~CH*P
Badamy możliwość ~~> wystąpienia wszystkich zdarzeń:
CH*P=1 - możliwe jest (=1) zdarzenie: są chmury (CH) i pada (P)
CH*~P=1 - możliwe jest (=1) zdarzenie: są chmury (CH) i nie pada (~P)
~CH*P=0 - niemożliwe jest (=0) zdarzenie: nie ma chmur (~CH) i pada (P)
Stąd mamy:
5.
CH*P + CH*~P ~> CH*P
bo x+0=x
Doskonale tu widać, że zdarzenie (CH*P + CH*~P) jest nadzbiorem ~> zdarzenia CH*P

2.2.4 Definicja kontrprzykładu w zdarzeniach

Definicja kontrprzykładu w zdarzeniach:
Kontrprzykładem dla warunku wystarczającego p=>q nazywamy to samo zdanie z zanegowanym następnikiem kodowane zdarzeniem możliwym p~~>~q=p*~q
Rozstrzygnięcia:
Prawdziwość warunku wystarczającego p=>q=1 wymusza fałszywość kontrprzykładu p~~>~q=p*~q=0 (i odwrotnie)
Fałszywość warunku wystarczającego p=>q=0 wymusza prawdziwość kontrprzykładu p~~>~q=p*~q=1
(i odwrotnie)

Przykład:
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
P=>CH=1
Padanie jest warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury

Na mocy definicji kontrprzykładu prawdziwy warunek wystarczający A1: P=>CH=1 wymusza fałszywość kontrprzykładu A1' (i odwrotnie)
A1'
Jeśli jutro będzie padało (P) to może ~~> nie być pochmurno (~CH)
P~~>~CH = P*~CH=0
Dowód wprost:
Niemożliwe jest (=0) zdarzenie ~~>: pada (P) i nie jest pochmurno (~CH)
Dowód "nie wprost":
Na mocy definicji kontrprzykładu tego faktu nie musimy udowadniać, ale możemy, co wyżej uczyniliśmy.

Uwaga na standard w algebrze Kubusia:
Kontrprzykład dla warunku wystarczającego => A1 oznaczamy A1’

2.3 Elementarne spójniki implikacyjne w zbiorach

Cała logika matematyczna w obsłudze zdań warunkowych „Jeśli p to q” stoi na zaledwie trzech znaczkach (~~>, =>, ~>) definiujących wzajemne relacje zbiorów/zdarzeń p i q.

2.3.1 Definicja elementu wspólnego zbiorów ~~>

Definicja elementu wspólnego ~~> zbiorów:
Jeśli p to q
p~~>q =p*q =1
Definicja elementu wspólnego zbiorów ~~> jest spełniona (=1) wtedy i tylko wtedy gdy zbiory p i q mają co najmniej jeden element wspólny
Inaczej:
p~~>q= p*q= [] =0 - zbiory p i q są rozłączne, nie mają (=0) elementu wspólnego ~~>

Decydujący w powyższej definicji jest znaczek elementu wspólnego zbiorów ~~>, dlatego dopuszczalny jest zapis skrócony p~~>q.
W operacji iloczynu logicznego zbiorów p*q poszukujemy jednego wspólnego elementu co kończy dowód.
Jeśli zbiory p i q mają element wspólny ~~> to z reguły błyskawicznie go znajdujemy:
p~~>q=p*q =1
co na mocy definicji kontrprzykładu (poznamy za chwilkę) wymusza fałszywość warunku wystarczającego =>:
p=>~q =0 (i odwrotnie)

Kod:

Zero-jedynkowa definicja elementu wspólnego zbiorów ~~>:
   p  q p~~>q = p*q + p*~q + ~p*~q + ~p*q
A: 1  1  =1
B: 1  0  =1
C: 0  0  =1
D: 0  1  =1
Interpretacja:
p~~>q=p*q=1 - wtedy i tylko wtedy
              gdy istnieje (=1) element wspólny ~~> zbiorów p i q
Inaczej:
p~~>q=p*q=0

Przykład:
Jeśli dowolna liczba jest podzielna przez 8 to może ~~> być podzielna przez 3
P8~~>P3 = P8*P3 =1
Istnieje (=1) wspólny element zbiorów P8=[8,16,24..] i P3=[3,6,9..24..] np. 24

2.3.2 Definicja warunku wystarczającego => w zbiorach

Definicja podzbioru => w algebrze Kubusia:
Zbiór p jest podzbiorem => zbioru q wtedy i tylko wtedy gdy wszystkie elementy zbioru p należą do zbioru q
p=>q =1 - wtedy i tylko wtedy gdy relacja podzbioru => jest (=1) spełniona
Inaczej:
p=>q =0 - wtedy i tylko wtedy gdy relacja podzbioru => nie jest (=0) spełniona

Definicja warunku wystarczającego => w zbiorach:
Jeśli p to q
p=>q =1
Zajście p jest (=1) wystarczające => dla zajścia q wtedy i tylko wtedy gdy zbiór p jest (=1) podzbiorem => zbioru q
Inaczej:
p=>q =0
Zajście p nie jest (=0) wystarczające => dla zajścia q wtedy i tylko wtedy gdy zbiór p nie jest (=0) podzbiorem => zbioru q

Matematycznie zachodzi tożsamość logiczna:
Warunek wystarczający => = relacja podzbioru =>

Definicja warunku wystarczającego => dla potrzeb rachunku zero-jedynkowego:
p=>q = ~p+q

Przykład:
A1.
Jeśli dowolna liczba jest podzielna przez 8 to na jest podzielna przez 2
P8=>P2 =1
Podzielność dowolnej liczby przez 8 jest warunkiem wystarczającym => dla jej podzielności przez 2 wtedy i tylko wtedy gdy zbiór P8=[8,16,24..] jest podzbiorem => zbioru P2=[2,4,6,8..]
Udowodnić relację podzbioru P8=>P2 potrafi każdy matematyk.

W zapisie formalnym mamy tu:
p=P8=[8,16,24..] - zbiór liczb podzielnych przez 8
q=P2=[2,4,6,8..] - zbiór liczb podzielnych przez 2
Gdzie:
p - przyczyna (część zdania po "Jeśli …")
q - skutek (część zdania po "to…")

Podsumowując:
Kod:

Definicja warunku wystarczającego =>:
Zapis formalny:
A1: p=>q = ~p+q
Zapis aktualny (przykład):
A1: p=P8
A1: q=P2
A1: P8=>P2=~P8+P2


2.3.3 Definicja warunku koniecznego ~> w zbiorach

Definicja nadzbioru ~> w algebrze Kubusia:
Zbiór p jest nadzbiorem ~> zbioru q wtedy i tylko wtedy gdy zbiór p zawiera co najmniej wszystkie elementy zbioru q
p~>q =1 - wtedy i tylko wtedy gdy relacja nadzbioru ~> jest (=1) spełniona
Inaczej:
p~>q =0 - wtedy i tylko wtedy gdy relacja nadzbioru ~> nie jest (=0) spełniona

Definicja warunku koniecznego ~> w zbiorach:
Jeśli p to q
p~>q =1
Zajście p jest (=1) konieczne ~> dla zajścia q wtedy i tylko wtedy gdy zbiór p jest (=1) nadzbiorem ~> zbioru q
Inaczej:
p~>q =0
Zajście p nie jest (=0) konieczne ~> dla zajścia q wtedy i tylko wtedy gdy zbiór p nie jest (=0) nadzbiorem ~> zbioru q

Matematycznie zachodzi tożsamość logiczna:
Warunek konieczny ~> = relacja nadzbioru ~>

Definicja warunku koniecznego ~> dla potrzeb rachunku zero-jedynkowego:
p~>q = p+~q

Przykład:
B1.
Jeśli dowolna liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8 =1
Podzielność dowolnej liczby przez 2 jest warunkiem koniecznym ~> dla jej podzielności przez 8 wtedy i tylko wtedy gdy zbiór P2=[2,4,6,8..] jest nadzbiorem ~> zbioru P8=[8,16,24..]

W zapisie formalnym mamy tu:
p=P2=[2,4,6,8..] - zbiór liczb podzielnych przez 2
q=P8=[8,16,24..] - zbiór liczb podzielnych przez 8
Gdzie:
p - przyczyna (część zdania po "Jeśli …")
q - skutek (część zdania po "to…")

Podsumowując:
Kod:

Definicja warunku koniecznego ~>:
Zapis formalny:
B1: p~>q = p+~q
Zapis aktualny (przykład):
B1: p=P2
B1: q=P8
B1: P2~>P8=P2+~P8


2.3.4 Definicja kontrprzykładu w zbiorach

Definicja kontrprzykładu w zbiorach:
Kontrprzykładem dla warunku wystarczającego p=>q nazywamy to samo zdanie z zanegowanym następnikiem kodowane elementem wspólnym zbiorów p~~>~q=p*~q
Rozstrzygnięcia:
Prawdziwość warunku wystarczającego p=>q=1 wmusza fałszywość kontrprzykładu p~~>~q=p*~q=0 (i odwrotnie)
Fałszywość warunku wystarczającego p=>q=0 wmusza prawdziwość kontrprzykładu p~~>~q=p*~q=1 (i odwrotnie)

Przykład:
A1.
Jeśli dowolna liczba jest podzielna przez 8 to jest podzielna przez 2
P8=>P2=1
Podzielność dowolnej liczby przez 8 jest warunkiem wystarczającym => dla jej podzielności przez 2, bo zbiór P8=[8,16,24..] jest podzbiorem => zbioru P2=[2,4,6,8…], co każdy matematyk udowodni.

Na mocy definicji kontrprzykładu, z prawdziwości warunku wystarczającego A1 wynika fałszywość kontrprzykładu A1’ (i odwrotnie)
A1’
Jeśli dowolna liczba jest podzielna przez 8 to może ~~> nie być podzielna przez 2
P8~~>~P2 = P8*~P2 =[] =0
Dowód wprost:
Nie istnieje (=0) wspólny element zbiorów P8=[8,16,24..] i ~P2=[1,3,5,7,9…] bo dowolny zbiór liczb parzystych jest rozłączny z dowolnym zbiorem liczb nieparzystych.
Dowód "nie wprost":
Na mocy definicji kontrprzykładu fałszywości zdania A1' nie musimy udowadniać, ale możemy, co zrobiono wyżej.

Uwaga na standard w algebrze Kubusia:
Kontrprzykład dla warunku wystarczającego => A1 oznaczamy A1’

2.4 Rachunek zero-jedynkowy warunków wystarczających => i koniecznych ~>

Rachunek zero-jedynkowy dla teorii zdarzeń i teorii zbiorów jest wspólny.

Definicja stałej binarnej
Stała binarna to symbol mający w osi czasu stałą wartość logiczną 0 albo 1.

Definicja zmiennej binarnej:
Zmienna binarna to symbol, przyjmujący w osi czasu wyłącznie dwie wartości logiczne 0 albo 1.

Zachodzi tożsamość pojęć:
zmienna binarna = zmienna dwuwartościowa

Definicja zmiennej binarnej w logice dodatniej (bo p):
Zmienna binarna p wyrażona jest w logice dodatniej (bo p) wtedy i tylko wtedy gdy nie jest zanegowana.
Inaczej mamy do czynienia ze zmienną binarną w logice ujemnej (bo ~p)

Definicja funkcji logicznej Y dwóch zmiennych binarnych p i q:
Funkcja logiczna Y w logice dodatniej (bo Y) dwóch zmiennych binarnych p i q to cyfrowy układ logiczny (bramka logiczna) dający na wyjściu binarnym Y jednoznaczne odpowiedzi na wszystkie możliwe wymuszenia na wejściach p i q.

Zero-jedynkowa tabela prawdy:
Zero-jedynkowa tabela prawdy to zapis wszystkich możliwych wartościowań zmiennych binarnych w postaci tabeli zero-jedynkowej.

W poniższych tabelach T1 do T4 w kolumnach opisujących symbole {p, q Y} nie mamy stałych wartości 1 albo 0 co oznacza, że symbole te są zmiennymi binarnymi.
Kod:

T1
Definicja warunku wystarczającego =>
        Y=
   p  q p=>q=~p+q
A: 1=>1  1
B: 1=>0  0
C: 0=>0  1
D: 0=>1  1
   1  2  3
Do łatwego zapamiętania:
p=>q=0 <=> p=1 i q=0
Inaczej:
p=>q=1
Gdzie:
Podstawa wektora => zawsze wskazuje poprzednik, część zdania po "Jeśli.."
Strzałka wektora => zawsze wskazuje następnik, część zdania po "to.."
;
Definicja warunku wystarczającego => w spójniku „lub”(+):
p=>q =~p+q

##
Kod:

T2
Definicja warunku koniecznego ~>
        Y=
   p  q p~>q=p+~q
A: 1~>1  1
B: 1~>0  1
C: 0~>0  1
D: 0~>1  0
   1  2  3
Do łatwego zapamiętania:
p~>q=0 <=> p=0 i q=1
Inaczej:
p~>q=1
Gdzie:
Podstawa wektora ~> zawsze wskazuje poprzednik, część zdania po "Jeśli.."
Strzałka wektora ~> zawsze wskazuje następnik, część zdania po "to.."
;
Definicja warunku koniecznego ~> w spójniku „lub”(+):
p~>q = p+~q

##
Kod:

T3
Definicja spójnika “lub”(+):
        Y=
   p  q p+q
A: 1+ 1  1
B: 1+ 0  1
C: 0+ 0  0
D: 0+ 1  1
   1  2  3
Do łatwego zapamiętania:
Definicja spójnika „lub”(+) w logice jedynek:
p+q=1 <=> p=1 lub q=1
inaczej:
p+q=0
;
Definicja spójnika „lub”(+) w logice zer:
p+q=0 <=> p=0 i q=0
Inaczej:
p+q=1
Przy wypełnianiu tabel zero-jedynkowych szybsza jest logika zer.

##
Kod:

T4
Definicja spójnika “i”(*)
        Y=
   p  q p*q
A: 1* 1  1
B: 1* 0  0
C: 0* 0  0
D: 0* 1  0
   1  2  3
Do łatwego zapamiętania:
Definicja spójnika „i”(*) w logice jedynek:
p*q=1 <=> p=1 i q=1
inaczej:
p*q=0

Gdzie:
## - różne na mocy definicji funkcji logicznych

Definicja znaczka różne na mocy definicji ## w logice dodatniej (bo Y):
Funkcje logiczne Y w logice dodatniej (bo Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy dla identycznych wymuszeń na wejściach p i q:
p - w logice dodatniej (bo p)
oraz
q - w logice dodatniej (bo q)
mają różne kolumny wynikowe Y ( w logice dodatniej bo Y)

Wniosek:
Funkcje logiczne definiowane tabelami T1 do T4 spełniają definicję znaczka różne na mocy definicji ##

Wyprowadźmy w rachunku zero-jedynkowym matematyczne związki między warunkami wystarczającym => i koniecznym ~>
Kod:

Ax:
Warunek wystarczający =>:
p=>q = ~p+q
Matematyczne związki warunku wystarczającego => i koniecznego ~>
w rachunku zero-jedynkowym
              Y=    Y=        Y=    Y=        Y=        #  ~Y=
   p  q ~p ~q p=>q ~p~>~q [=] q~>p ~q=>~p [=] p=>q=~p+q # ~(p=>q)=p*~q
A: 1  1  0  0  =1    =1        =1    =1        =1       #    =0
B: 1  0  0  1  =0    =0        =0    =0        =0       #    =1
C: 0  0  1  1  =1    =1        =1    =1        =1       #    =0
D: 0  1  1  0  =1    =1        =1    =1        =1       #    =0
                1     2         3     4         5             6
Gdzie:
# - różne w znaczeniu iż jedna strona znaczka # jest negacją drugiej strony

##
Kod:

Bx:
Warunek konieczny ~>:
p~>q = p+~q
Matematyczne związki warunku koniecznego ~> i wystarczającego =>
w rachunku zero-jedynkowym
              Y=    Y=        Y=    Y=        Y=        #  ~Y=
   p  q ~p ~q p~>q ~p=>~q [=] q=>p ~q~>~p [=] p~>q=p+~q # ~(p~>q)=~p*q
A: 1  1  0  0  =1    =1        =1    =1        =1       #    =0
B: 1  0  0  1  =1    =1        =1    =1        =1       #    =0
C: 0  0  1  1  =1    =1        =1    =1        =1       #    =0
D: 0  1  1  0  =0    =0        =0    =0        =0       #    =1
                1     2         3     4         5             6
Gdzie:
# - różne w znaczeniu iż jedna strona znaczka # jest negacją drugiej strony

Gdzie:
## - różne na mocy definicji
"=", [=], <=> (wtedy i tylko wtedy) - tożsame znaczki tożsamości logicznej
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Definicja tożsamości logicznej:
Prawdziwość dowolnej strony tożsamości logicznej "=" wymusza prawdziwość drugiej strony
Fałszywość dowolnej strony tożsamości logicznej "=" wymusza fałszywość drugiej strony

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Doskonale widać, że w tabelach Ax i Bx definicja znaczka # jest spełniona

Definicja znaczka różne na mocy definicji ##:
Funkcje logiczne Ax i Bx są różne na mocy definicji ## wtedy i tylko wtedy gdy dla identycznych wymuszeń na wejściach {p, q} mają różne kolumny wynikowe i żadna z tych funkcji nie jest negacją drugiej.

Jak widzimy, między tabelami Ax i Bx obowiązuje znaczek różne na mocy definicji ##

2.5 Prawa algebry Kubusia wynikłe z rachunku zero-jedynkowego

Na mocy rachunku zero-jedynkowego wyżej mamy matematyczne związki warunku wystarczającego => i koniecznego ~> w zapisie skróconym.
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Na mocy powyższego zapisujemy:
1.
Prawa Kubusia:
Matematyczne związki warunku wystarczającego => i koniecznego ~> bez zamiany p i q
A1: p=>q = A2: ~p~>~q
##
B1: p~>q = B2: ~p=>~q
Ogólne prawo Kubusia:
Negujemy zmienne i wymieniamy spójniki na przeciwne
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>

2.
Prawa Tygryska:
Matematyczne związki warunku wystarczającego => i koniecznego ~> z zamianą p i q
A1: p=>q = A3: q~>p
##
B1: p~>q = B3: q=>p
Ogólne prawo Tygryska:
Zamieniamy miejscami zmienne i wymieniamy spójniki na przeciwne
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>

3.
Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A4: ~q=>~p
##
B3: q=>p = B2: ~p=>~q
Ogólne prawo kontrapozycji:
Negujemy zmienne zamieniając je miejscami bez zmiany spójnika logicznego
Gdzie:
## - różne na mocy definicji

4.
Prawa kontrapozycji dla warunku koniecznego ~>:
B1: p~>q = B4: ~q~>~p
##
A3: q~>p = A2: ~p~>~q
Ogólne prawo kontrapozycji:
Negujemy zmienne zamieniając je miejscami bez zmiany spójnika logicznego
Gdzie:
## - różne na mocy definicji

2.5.1 Definicje znaczków # i ##

Zapiszmy matematyczne związki warunku wystarczającego => i koniecznego ~>
z uwzględnieniem kolumny 6.
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:     A5B5:        A6B6:
      Y=        Y=           Y=        Y=        Y=(p=>q)= # ~Y=~(p=>q)=
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5:~p+ q   #  6: p* ~q
      ##        ##           ##        ##        ##          ##
      Y=        Y=           Y=        Y=        Y=(p~>q)= # ~Y=~(p~>q)=
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5: p+~q   #  6: ~p* q
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Definicja warunku wystarczającego => dla potrzeb rachunku zero-jedynkowego:
A1: p=>q = ~p+q
##
Definicja warunku koniecznego ~> dla potrzeb rachunku zero-jedynkowego:
B1: p~>q = p+~q
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>

Zapiszmy powyższe definicje wyrażone funkcjami logicznymi Y i ~Y
Kod:

T0"
Funkcja logiczna Y warunku wystarczającego =>:
A5: Y=(p=>q)=~p+ q   # A6: ~Y=~(p=>q)= p*~q
    ##                     ##
Funkcja logiczna Y warunku koniecznego ~>:
B5: Y=(p~>q)= p+~q   # B6: ~Y=~(p~>q)=~p* q
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

Doskonale widać, że w tabeli T0" obie definicje znaczków # i ## są perfekcyjnie spełnione

2.6 Fundamentalne definicje i prawa algebry Kubusia

Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

2.6.1 Prawa Sowy

I Prawo Sowy
Dla udowodnienia prawdziwości wszystkich zdań serii Ax potrzeba i wystarcza udowodnić prawdziwość dowolnego zdania serii Ax
Dla udowodnienia fałszywości wszystkich zdań serii Ax potrzeba i wystarcza udowodnić fałszywość dowolnego zdania serii Ax
##
II Prawo Sowy
Dla udowodnienia prawdziwości wszystkich zdań serii Bx potrzeba i wystarcza udowodnić prawdziwość dowolnego zdania serii Bx
Dla udowodnienia fałszywości wszystkich zdań serii Bx potrzeba i wystarcza udowodnić fałszywość dowolnego zdania serii Bx
Gdzie:
## - różne na mocy definicji

2.6.2 Definicja tożsamości logicznej

Prawa Sowy to:
Ogólna definicja tożsamości logicznej „=” dla wielu zdań:
Prawdziwość dowolnego zdania w tożsamości logicznej „=” wymusza prawdziwość pozostałych zdań
Fałszywość dowolnego zdania w tożsamości logicznej „=” wymusza fałszywość pozostałych zdań

Tożsame znaczki tożsamości logicznej to:
„=”, [=], <=> (wtedy i tylko wtedy)

2.6.3 Definicja dowodu "nie wprost" w algebrze Kubusia

Definicja dowodu „nie wprost” w algebrze Kubusia:
Dowód „nie wprost” w algebrze Kubusia to dowód warunku koniecznego ~> lub wystarczającego => z wykorzystaniem praw logiki matematycznej (prawa Kubusia, prawa Tygryska, prawa kontrapozycji dla warunku wystarczającego =>, prawa kontrapozycji dla warunku koniecznego ~>) plus definicja kontrprzykładu.

2.6.4 Prawa Prosiaczka

I Prawo Prosiaczka:
Prawda (=1) w logice dodatniej (bo Y) jest tożsama z fałszem (=0) w logice ujemnej (bo ~Y)
(Y=1) = (~Y=0)
##
II Prawo Prosiaczka:
Fałsz (=0) w logice dodatniej (bo Y) jest tożsamy z prawdą (=1) w logice ujemnej (bo ~Y)
(Y=0) = (~Y=1)
Gdzie:
## - różne na mocy definicji

Prawa Prosiaczka wiążą zmienną binarną w logice dodatniej (bo Y) ze zmienną binarną w logice ujemnej (bo ~Y).
Prawa Prosiaczka możemy stosować wybiórczo w stosunku do dowolnej zmiennej binarnej.
Dowód praw Prosiaczka znajdziemy w punkcie 1.4

2.7 Prawo Kłapouchego - kluczowe prawo logiki matematycznej

Prawo Kłapouchego:
Domyślny punkt odniesienia dla zdań warunkowych „Jeśli p to q”:
W zapisie aktualnym zdań warunkowych (w przykładach) po „Jeśli…” mamy zdefiniowaną przyczynę p zaś po „to..” mamy zdefiniowany skutek q z pominięciem przeczeń.
Prawo Kłapouchego determinuje wspólny dla wszystkich ludzi punktu odniesienia zawarty wyłącznie w kolumnach A1B1 oraz A2B2, dający odpowiedź na pytanie o p (A1B1) oraz o ~p (A2B2).

Prawo Kłapouchego jest tożsame z otwarciem drzwiczek pudełka z kotem Schrödingera (pkt.5.4.1)
Prawo Kłapouchego obowiązuje dla standardu dodatniego w języku potocznym człowieka.

Definicja standardu dodatniego w języku potocznym człowieka:
W języku potocznym ze standardem dodatnim mamy do czynienia wtedy i tylko wtedy gdy wszelkie przeczenia (~) w zdaniach są uwidocznione w kodowaniu matematycznym tych zdań.

Innymi słowy:
W kodowaniu matematycznym dowolnych zdań z języka potocznego wszystkie zmienne muszą być sprowadzone do logicznych jedynek na mocy prawa Prosiaczka.
Logiką matematycznie zgodną z językiem potocznym człowieka jest tylko i wyłącznie standard dodatni.

2.7.1 Definicja podstawowego spójnika implikacyjnego
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Definicja podstawowego spójnika implikacyjnego
Podstawowy spójnik implikacyjny to badanie prawdziwości/fałszywości zdań w kolumnie A1B1 dającej odpowiedź na pytanie:
A1B1: Kiedy zajdzie p?

Podstawowe, przykładowe spójniki implikacyjne to implikacja prosta p|=>q i implikacja odwrotna p|~>q

Definicja implikacji prostej p|=>q
Implikacja prosta p|=>q to zachodzenie wyłącznie warunku wystarczającego => między tymi samymi punktami i w tym samym kierunku
A1: p=>q=1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q=0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(0)=1*1=1
##
Definicja implikacji odwrotnej p|~>q
Implikacja odwrotna p|~>q to zachodzenie wyłącznie warunku koniecznego ~> między tymi samymi punktami i w tym samym kierunku
A1: p=>q=0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q=1 - zajście p jest (=1) konieczne ~> dla zajścia q
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(0)*1=1*1=1
Gdzie:
## - różne na mocy definicji implikacji prostej p|=>q i odwrotnej p|~>q

2.7.2 Prawo Kłapouchego i prawo Kameleona w implikacji prostej p|=>q

Dane jest zdanie:
A1.
Jeśli jutro będzie padało to będzie pochmurno
Polecenie:
Zbadaj w skład jakiego podstawowego spójnika implikacyjnego wchodzi to zdanie

Rozwiązanie:
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
A1: P=>CH =1
Padanie jest (=1) warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury

Na mocy prawa Kłapouchego mamy:
p=P (pada)
q=CH (chmury)

Aby rozstrzygnąć w skład jakiego spójnika implikacyjnego wchodzi badane zdanie musimy zbadać prawdziwość/fałszywość warunku koniecznego ~> między tymi samymi punktami i w tym samym kierunku

##

B1.
Jeśli jutro będzie padało (P) to na 100% ~> będzie pochmurno (CH)
P~>CH =0
Padanie nie jest (=0) warunkiem koniecznym ~> dla istnienia chmur, bo może nie padać, a chmury mogą istnieć.

Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>

Stąd mamy wyprowadzone prawo Kameleona.

Prawo Kameleona:
Dwa zdania brzmiące identycznie z dokładnością do każdej literki i każdego przecinka nie muszą być matematycznie tożsame.
Dowód:
Zdania A1 i B1 wyżej.
Różność matematyczną zdań A1 i B1 rozpoznajemy wyłącznie po znaczkach warunku wystarczającego => (A1) i koniecznego ~> (B1) wbudowanych w treść zdań

W zapisach formalnych (ogólnych) zachodzi:
A1: p=>q = ~p+q ## B1: p~>q = p+~q
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>

Nasza tabela prawdy z uwzględnieniem prawa Kłapouchego wygląda tak:
Kod:

T1
Tabela prawdy implikacji prostej p|=>q w zapisie formalnym:
A1: p=>q=1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q=0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(0)=1*1=1
To samo w zapisie aktualnym (nasz przykład):
p=P (pada)
q=CH (chmury)
A1: P=>CH=1 - padanie jest (=1) wystarczające => dla istnienia chmur
B1: P~>CH=0 - padanie nie jest (=0) konieczne ~> dla istnienia chmur
A1B1: P|=>CH = (A1: P=>CH)*~(B1: P~>CH)=1*~(0)=1*1=1
Matematyczne relacje między warunkiem wystarczającym => i koniecznym ~>
dla spełnionego warunku wystarczającego P=>CH=1
   Warunek wystarczający p=>q      | Warunek konieczny p~>q
   Zapis formalny:                 | Zapis formalny:
1: Y = A1: p=>q =~p+q             ## Y = B1: p~>q = B3: q=>p = p+~q
   Zapis aktualny (przykład):      | Zapis aktualny (przykład)
2: p=P (pada)                    [=] p=P (pada)
3: q=CH (chmury)                 [=] q=CH (chmury)
4: A1: P=>CH=1                    ## B1: P~>CH=0
P jest wystarczające => dla CH    ## P nie jest (=0) konieczne ~> dla CH
Gdzie:
##  - różne na mocy definicji
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia


2.7.3 Prawo Kłapouchego w implikacji odwrotnej p|~>q

Dane jest zdanie:
Jeśli jutro będzie pochmurno to może padać
Polecenie:
Zbadaj w skład jakiego podstawowego spójnika implikacyjnego wchodzi powyższe zdanie

Rozwiązanie:
B1.
Jeśli jutro będzie pochmurno (CH) to może ~> padać (P)
B1: CH~>P =1
Chmury (CH) są (=1) konieczne ~> dla padania (P), bo padać może wyłącznie z chmurki (CH)

Na mocy prawa Kłapouchego mamy:
p=CH (chmury)
q=P (pada)

Aby rozstrzygnąć w skład jakiego spójnika implikacyjnego wchodzi zdanie B1 musimy zbadać prawdziwość/fałszywość warunku wystarczającego => między tymi samymi punktami i w tym samym kierunku.

##

A1.
Jeśli jutro będzie pochmurno (CH) to na 100% => będzie padało (P)
CH=>P =0
Chmury nie są (=0) warunkiem wystarczającym => dla padania, bo nie zawsze gdy są chmury, pada.
Gdzie:
## - zdania B1 i A1 to zdania różne na mocy definicji warunku koniecznego ~> i wystarczającego =>

Dowód w zapisach formalnych:
B1: p~>q=p+~q ## A1: p=>q=~p+q
Gdzie:
## - różne na mocy definicji warunku koniecznego ~> i wystarczającego =>

Nasza tabela prawdy z uwzględnieniem prawa Kłapouchego wygląda tak:
Kod:

T2
Implikacja odwrotna p|~>q to zachodzenie wyłącznie warunku koniecznego ~>
między tymi samymi punktami i w tym samym kierunku
A1: p=>q=0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q=1 - zajście p jest (=1) konieczne ~> dla zajścia q
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(0)*1=1*1=1
To samo w zapisie aktualnym (nasz przykład):
p=CH (chmury)
q=P (pada)
A1: CH=>P=0 - chmury nie są (=0) wystarczające => dla padania
B1: CH~>P=1 - chmury są (=1) konieczne ~> dla padania
A1B1: CH|~>P = ~(A1: CH=>P)*(B1: CH~>P)=~(0)*1=1*1=1
Matematyczne relacje między warunkiem wystarczającym => i koniecznym ~>
dla spełnionego warunku koniecznego CH~>P=1
   Warunek wystarczający p=>q         | Warunek konieczny p~>q
   Zapis formalny:                    | Zapis formalny:
1: Y = A1: p=>q =~p+q                ## Y = B1: p~>q = B3: q=>p = p+~q
   Zapis aktualny (przykład):         | Zapis aktualny (przykład)
2: p=CH (chmury)                    [=] p=CH (chmury)
3: q=P (pada)                       [=] q=P (pada)
4: CH=>P=0                           ## CH~>P=1
CH nie są wystarczające => dla P     ## CH są (=1) konieczne ~> dla P
Gdzie:
##  - różne na mocy definicji
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia


2.7.4 Nietrywialny błąd podstawienia ###

Zapiszmy przykłady warunku wystarczającego => i koniecznego ~> w zdarzeniach
A1.
Przykład spełnionego warunku wystarczającego =>:
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
A1: P=>CH =1
Padanie jest (=1) warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury

Na mocy prawa Kłapouchego mamy:
p=P (pada)
q=CH (chmury)

B1.
Przykład spełnionego warunku koniecznego ~>:
Jeśli jutro będzie pochmurno (CH) to może ~> padać (P)
B1: CH~>P =1
Chmury (CH) są (=1) konieczne ~> dla padania (P), bo padać może wyłącznie z chmurki.

Na mocy prawa Kłapouchego mamy:
p=CH (chmury)
q=P (pada)

Umieśćmy nasze przykłady A1 i B1 w tabeli prawdy:
Kod:

Nietrywialny błąd podstawienia ###:
Definicja warunku wystarczającego =>: | Definicja warunku koniecznego ~>:
Zapis formalny:                       | Zapis formalny:
1. Y = A1: p=>q =~p+q                ## Y = B1: p~>q = B3: q=>p = p+~q
   Zapis aktualny (przykład):         | Zapis aktualny (przykład)
2. A1: p=P (pada)                   ### B1: p=CH (chmury)
3. A1: q=CH (chmury)                ### B1: q=P (pada)
4. A1: Y= A1: P=>CH =~P+CH          ### B1: Y= B1: CH~>P = B3: P=>CH =CH+~P
Gdzie:
##  - różne na mocy definicji
### - różne na mocy nietrywialnego błędu podstawienia
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Zauważmy że:
1.
Suma logiczna (+) jest przemienna stąd w linii 4 zachodzi pozorna tożsamość logiczna [=].
2.
W rzeczywistości pozorna tożsamość [=] w linii 4 nie zachodzi, bowiem mamy tu do czynienia z nietrywialnym błędem podstawienia ###
3.
W liniach 2 i 3 doskonale widać na czym ten nietrywialny błąd podstawienia ### polega:
Warunek wystarczający A1: p=>q jest tu obserwowany z punktu odniesienia p=P i q=CH
Natomiast:
Warunek konieczny B1: p~>q jest tu obserwowany z innego punktu odniesienia p=CH i q=P

Prawo Wielbłąda:
Otaczająca nas rzeczywistość wygląda różnie z różnych punktów odniesienia.
Innymi słowy:
Otaczającą nas rzeczywistość opiszemy matematycznie poprawnie wtedy i tylko wtedy gdy będziemy na nią patrzeć z tego samego punktu odniesienia.
Poprawny opis rzeczywistości w naszym przykładzie to punkty 2.7.2 i 2.7.3

Stąd mamy:
Definicja nietrywialnego błędu podstawienia ###:
Dwie funkcje logiczne Y są różne na mocy nietrywialnego błędu podstawienia ### wtedy i tylko wtedy gdy w zapisach formalnych (ogólnych) są różne na mocy definicji ## (linia 1), zaś w zapisach aktualnych (przykład) skolerowanych z zapisem formalnym funkcje te są tożsame (linia 4)

Wniosek:
Prawo Kłapouchego broni nas przed niejednoznacznością logiki matematycznej, bowiem tylko i wyłącznie dzięki niemu zauważymy nietrywialny błąd podstawienia ###
Prawo Kłapouchego jest tożsame z otwarciem drzwiczek pudełka z kotem Schrödingera (pkt. 5.4.1)

2.8 Prawa Słonia

Prawa Słonia dla zdarzeń i zbiorów to najważniejsze prawa w logice matematycznej.
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia


2.8.1 Prawo Słonia dla zbiorów

Prawo Słonia dla zbiorów (pkt 2.3):
W algebrze Kubusia w zbiorach zachodzi tożsamość [=] pojęć:
A1: p=>q - warunek wystarczający => [=] A1: p=>q - relacja podzbioru => [=] A1: p=>q - matematyczne twierdzenie proste
A1: p=>q = ~p+q
##
B1: p~>q - warunek konieczny ~> [=] B1: p~>q - relacja nadzbioru ~> [=] B3: q=>p - matematyczne twierdzenie odwrotne (w odniesieniu do A1)
Prawo Tygryska:
B1: p~>q = B3: q=>p = p+~q
Gdzie:
[=], „=”, <=> - tożsame znaczki tożsamości logicznej
<=> - wtedy o tylko wtedy
## - różne na mocy definicji
p i q musi być wszędzie tymi samymi p i q, inaczej błąd podstawienia

Definicja tożsamości logicznej [=]:
Prawdziwość dowolnego członu z tożsamości logicznej [=] wymusza prawdziwość pozostałych członów.
Fałszywość dowolnego członu z tożsamości logicznej [=] wymusza fałszywość pozostałych członów.

Z definicji tożsamości logicznej [=] wynika, że:
a)
Udowodnienie prawdziwości dowolnego członu powyższej tożsamości logicznej gwarantuje prawdziwość dwóch pozostałych członów
b)
Udowodnienie fałszywości dowolnego członu powyższej tożsamości logicznej gwarantuje fałszywość dwóch pozostałych członów

Na mocy prawa Słonia i jego powyższej interpretacji, możemy dowodzić prawdziwości/fałszywości dowolnych zdań warunkowych "Jeśli p to q" mówiących o zbiorach metodą ”nie wprost"

Definicja podzbioru =>:
Zbiór p jest (=1) podzbiorem => zbioru q wtedy i tylko wtedy gdy wszystkie jego elementy należą do zbioru q

Definicja nadzbioru ~>
Zbiór p jest (=1) nadzbiorem ~> zbioru q wtedy i tylko wtedy gdy zawiera co najmniej wszystkie elementy zbioru q

W logice matematycznej zachodzi tożsamość pojęć:
Podzbiór => = relacja podzbioru =>
Nadzbiór ~> = relacja nadzbioru ~>
W logice matematycznej rozstrzygamy o zachodzącej lub nie zachodzącej relacji podzbioru => czy też nadzbioru ~>.

Rozstrzygnięcia logiki matematycznej w relacji podzbioru =>:
A1: p=>q =1 - wtedy i tylko wtedy gdy zbiór p jest (=1) podzbiorem => zbioru q
Inaczej:
A1: p=>q =0 - wtedy i tylko wtedy gdy zbiór p nie jest (=0) podzbiorem => zbioru q

##

Rozstrzygnięcia logiki matematycznej w relacji nadzbioru ~>:
B1: p~>q =1 - wtedy i tylko wtedy gdy zbiór p jest (=1) nadzbiorem ~> zbioru q
Inaczej:
B1: p~>q =0 - wtedy i tylko wtedy gdy zbiór p nie jest (=0) nadzbiorem ~> zbioru q

Gdzie:
## - różne na mocy definicji podzbioru => i nadzbioru ~>

Przykład:
Zbadaj czy zachodzi warunek wystarczający => w poniższym zdaniu:
A1.
Jeśli dowolna liczba jest podzielna przez 8 to jest podzielna przez 2
A1: P8=>P2=?

Rozwiązanie:
Na mocy prawa Kłapouchego zapis formalny (ogólny) zdania A1 to:
A1: p=>q =1
Gdzie:
p=P8
q=P2

Prawo Słonia dla zbiorów:
W algebrze Kubusia w zbiorach zachodzi tożsamość [=] pojęć:
A1: p=>q - warunek wystarczający => [=] A1: p=>q - relacja podzbioru => [=] A1: p=>q matematyczne twierdzenie proste =>

W metodzie "nie wprost" na mocy prawa Słonia dowodzimy prawdziwości relacji podzbioru =>.
Innymi słowy badamy:
Czy zbiór P8=[8,16,24..] jest podzbiorem => zbioru P2=[2,4,6,8..]?
Oczywiście relacja podzbioru => jest (=1) tu spełniona:
P8=>P2=1
co każdy matematyk bez trudu udowodni.

W tym momencie na mocy prawa Słonia mamy udowodnione metodą "nie wprost" dwa fakty czysto matematyczne:
1.
Twierdzenie proste A1 jest prawdziwe
A1: P8=>P2 =1
2.
Podzielność dowolnej liczby przez 8 jest warunkiem wystarczającym => dla jej podzielności przez 2
A1: P8=>P2 =1

Podsumowując:
Z gołych definicji podzbioru => i warunku wystarczającego => nic w matematyce nie wynika, dopóki nie poznamy prawa Słonia.
Dopiero prawo Słonia w dowodzeniu prawdziwości warunku wystarczającego =>, czy też prawdziwości samego zdania warunkowego „Jeśli p to q" ma fundamentalne znaczenie, co udowodniono ciut wyżej.

2.8.2 Prawo Słonia dla zdarzeń

Prawo Słonia dla zdarzeń (pkt 2.2):
W algebrze Kubusia w zdarzeniach zachodzi tożsamość [=] pojęć:
A1: p=>q - warunek wystarczający => [=] A1: p=>q - relacja podzbioru => [=] A1: p=>q - matematyczne twierdzenie proste
A1: p=>q = ~p+q
##
B1: p~>q - warunek konieczny ~> [=] B1: p~>q - relacja nadzbioru ~> [=] B3: q=>p - matematyczne twierdzenie odwrotne (w odniesieniu do A1)
Prawo Tygryska:
B1: p~>q = B3: q=>p = p+~q
Gdzie:
[=], „=”, <=> - tożsame znaczki tożsamości logicznej
<=> - wtedy o tylko wtedy
## - różne na mocy definicji
p i q musi być wszędzie tymi samymi p i q, inaczej błąd podstawienia

Relacja podzbioru => i nadzbioru ~> w zdarzeniach nie jest intuicyjna, ale można ją łatwo udowodnić co zostało pokazane w punktach 2.2.2 i 2.2.3.

Definicja tożsamości logicznej [=]:
Prawdziwość dowolnego członu z tożsamości logicznej [=] wymusza prawdziwość pozostałych członów.
Fałszywość dowolnego członu z tożsamości logicznej [=] wymusza fałszywość pozostałych członów.

Z definicji tożsamości logicznej [=] wynika, że:
a)
Udowodnienie prawdziwości dowolnego członu powyższej tożsamości logicznej gwarantuje prawdziwość dwóch pozostałych członów
b)
Udowodnienie fałszywości dowolnego członu powyższej tożsamości logicznej gwarantuje fałszywość dwóch pozostałych członów

Na mocy prawa Słonia i jego powyższej interpretacji, możemy dowodzić prawdziwości/fałszywości
dowolnych zdań warunkowych "Jeśli p to q" mówiących o zbiorach metodą ”nie wprost"

W zdarzeniach dowodzimy:
1.
Warunku wystarczającego p=>q co na mocy prawa Słonia jest tożsame z udowodnieniem, iż zdarzenie p jest podzbiorem => zdarzenia q
albo
2.
Warunku koniecznego p~>q co na mocy prawa Słonia jest tożsame z udowodnieniem, iż zdarzenie p jest nadzbiorem ~> zdarzenia q

2.9 Prawo Irbisa
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia


2.9.1 Prawo Irbisa dla zbiorów

Definicja równoważności p<=>q:
Równoważność p<=>q w logice dodatniej (bo q) to spełnienie zarówno warunku wystarczającego =>, jak i koniecznego ~> między tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy definicję równoważności p<=>q w równaniu logicznym:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1 =1
Czytamy:
Równoważność p<=>q w logice dodatniej (bo q) jest spełniona (=1) wtedy i tylko wtedy gdy
Zajście p jest (=1) konieczne ~> (B1) i wystarczające => (A1) dla zajścia q
Innymi słowy:
Zajście p jest (=1) warunkiem koniecznym ~> (B1) i wystarczającym => (A1) dla zajścia q
Innymi słowy:
Do tego by zaszło q potrzeba ~> (B1) i wystarcza => (A1) by zaszło p

Ta wersja równoważności jest powszechnie znana.

I Prawo Słonia dla zbiorów:
W algebrze Kubusia w zbiorach zachodzi tożsamość [=] pojęć:
A1: p=>q - warunek wystarczający => [=] A1: p=>q - relacja podzbioru => [=] A1: p=>q - matematyczne twierdzenie proste
Y = A1: p=>q = ~p+q
##
II Prawo Słonia dla zbiorów:
B1: p~>q - warunek konieczny ~> [=] B1: p~>q - relacja nadzbioru ~> [=] B3: q=>p - matematyczne twierdzenie odwrotne (w odniesieniu do A1)
Prawo Tygryska:
Y = B1: p~>q = B3: q=>p = p+~q

Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q musi być wszędzie tymi samymi p i q, inaczej błąd podstawienia
[=], „=”, <=> - tożsame znaczki tożsamości logicznej

Na mocy prawa Słonia oraz tabeli T0 możemy wygenerować dużą ilość tożsamych definicji równoważności p<=>q.

Przykładowe, najbardziej użyteczne definicje to:
1.
Matematyczna definicja równoważności p<=>q (znana każdemu matematykowi):

Równoważność p<=>q to jednoczesna prawdziwość matematycznego twierdzenia prostego A1: p=>q i matematycznego twierdzenia odwrotnego B3: q=>p
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q, twierdzenie proste A1.
B3: q=>p =1 - zajście q jest (=1) wystarczające => dla zajścia p, twierdzenie odwrotne (względem A1)
Stąd mamy:
A1B3: p<=>q = (A1: p=>q)*(B3: q=>p) =1*1 =1

2.
Definicja równoważności wyrażona relacjami podzbioru =>

Równoważność p<=>q to relacja podzbioru => zachodząca w dwie strony
A1: p=>q =1 - wtedy i tylko wtedy gdy zbiór p jest (=1) podzbiorem => zbioru q
B3: q=>p =1 - wtedy i tylko wtedy gdy zbiór q jest (=1) podzbiorem => zbioru p
Stąd mamy:
A1B3: p<=>q = (A1: p=>q)*(B3: q=>p) =1*1 =1

Stąd mamy:

Prawo Irbisa dla zbiorów:
Dwa zbiory p i q są tożsame p=q wtedy i tylko wtedy gdy zbiór p jest podzbiorem => zbioru q (A1) i jednocześnie zbiór q jest podzbiorem => zbioru p (B3)
A1B3: p=q <=> (A1: p=>q)*(B3: q=>p)= A1B3: p<=>q
Prawo Irbisa znane jest każdemu matematykowi.

Innymi słowy:
Każda równoważność prawdziwa p<=>q definiuje tożsamość zbiorów p=q (i odwrotnie)
A1B3: p<=>q = (A1: p=>q)*(B3: q=>p) <=> A1B3: p=q

Prawo Irbisa w relacjach podzbioru => i nadzbioru ~>.

Prawo Irbisa dla zbiorów:
Dwa zbiory p i q są tożsame p=q wtedy i tylko wtedy gdy zbiór p jest (=1) podzbiorem => zbioru q (A1) i jednocześnie zbiór p jest (=1) nadzbiorem ~> zbioru q (B1)
A1: p=>q =1 - wtedy i tylko wtedy gdy zbiór p jest (=1) podzbiorem => zbioru q
B1: p~>q =1 - wtedy i tylko wtedy gdy zbiór p jest (=1) nadzbiorem ~> zbioru q
Stąd mamy:
A1B1: p=q <=> (A1: p=>q)*(B1: p~>q) = A1B1: p<=>q
Dowód:
Oczywistość, bo na mocy definicji podzbioru => i nadzbioru ~> każdy zbiór jest jednocześnie podzbiorem => i nadzbiorem ~> siebie samego.

Korzystając z prawa Słonia prawo Irbisa możemy też zapisać w warunkach koniecznym ~> (B1) i wystarczającym => (A1).

Prawo Irbisa dla zbiorów:
Dwa zbiory p i q są tożsame p=q wtedy i tylko wtedy gdy zajście p jest konieczne ~> (B1) i wystarczające => (A1) dla zajścia q
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy:
A1B1: p=q <=> (A1: p=>q)*(B1: p~>q) = A1B1: p<=>q

Stąd mamy tabelę prawdy równoważności p<=>q z uwzględnieniem prawa Irbisa.
Kod:

TR
Definicja równoważności:
Równoważność to jednocześnie zachodzący warunek wystarczający => i konieczny ~> między tymi samymi punktami i w tym samym kierunku
Dla kolumny A1B1 mamy:
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1 =1

       A1B1:       A2B2:      |     A3B3:       A4B4:
A:  1: p=>q=1  = 2:~p~>~q=1  [=] 3: q~>p=1  = 4:~q=>~p=1  [=] 5: ~p+q =1
       ##           ##              ##           ##               ##
B:  1: p~>q=1  = 2:~p=>~q=1  [=] 3: q=>p=1  = 4:~q~>~p=1  [=] 5:  p+~q=1
-----------------------------------------------------------------------
Równoważność <=>:             |     Równoważność <=>:
AB: 1: p<=>q=1 = 2:~p<=>~q=1 [=] 3: q<=>p=1 = 4:~q<=>~p=1 [=] 5: p*q+~p*~q
definiuje tożsamość zbiorów:  |     definiuje tożsamość zbiorów:
AB: 1: p=q     # 2:~p=~q      |  3: q=p     # 4:~q=~p
Gdzie:
# - różne w znaczeniu iż jedna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia
"=",[=],<=> - znaczki tożsamości logicznej


2.9.2 Prawo Irbisa dla zdarzeń

Prawo Irbisa dla zdarzeń:
Dwa zdarzenia p i q są tożsame p=q wtedy i tylko wtedy gdy zajście zdarzenia p jest konieczne ~> (B1) i wystarczające => (A1) dla zajścia zdarzenia q
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy:
A1B1: p=q <=> (A1: p=>q)*(B1: p~>q) = A1B1: p<=>q

Przykład:
Pani w przedszkolu:
A1.
Jutro pójdziemy do kina
Y=K
co w logice jedynek oznacza:
Y=1 <=> K=1
Czytamy:
Pani dotrzyma słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K=1)

Na mocy prawa Irbisa zachodzi tożsamość pojęć:
Y=K <=> (A1: Y=>K)*(B1: Y~>K) = Y<=>K
Lewą stronę czytamy:
Pojęcie „pani dotrzyma słowa” (Y) jest tożsame „=” z pojęciem „pójdziemy do kina” (K)
Środek czytamy:
Do tego by dzieci poszły do kina (K) potrzeba ~> (B1) i wystarcza => (A1) by pani dotrzymała słowa (Y)
Prawą stronę czytamy:
Pani dotrzyma słowa (Y) wtedy i tylko wtedy gdy jutro pójdziemy do kina (K)


Ostatnio zmieniony przez rafal3006 dnia Sob 17:11, 12 Paź 2024, w całości zmieniany 8 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 35257
Przeczytał: 24 tematy

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Nie 17:19, 15 Wrz 2024    Temat postu:

Kompendium algebry Kubusia
Część III Kwintesencja algebry Kubusia. Część 2

Spis treści
2.10 Podstawowe spójniki implikacyjne 1
2.10.1 Prawo Puchacza 4
2.11 Algorytm Puchacza 6
2.11.1 Przykłady zdań niespełniających algorytmu Puchacza 7
2.11.2 Zdanie warunkowe typu „Jeśli p to p” 8
2.11.3 Zdanie warunkowe typu „Jeśli [] to []” 9
2.12 Implikacja prosta p|=>q 10
2.12.1 Operator implikacji prostej p||=>q 11
2.13 Implikacja odwrotna p|~>q 13
2.13.1 Operator implikacji odwrotnej p||~>q 14
2.14 Równoważność p<=>q 16
2.14.1 Operator równoważności p|<=>q 17
2.15 Chaos p|~~>q 19
2.15.1 Operator chaosu p||~~>q 20
2.16 Sztandarowy przykład implikacji prostej P|=>CH 22
2.16.1 Prawo Kameleona 23
2.16.2 Operator implikacji prostej P||=>CH 23
2.16.3 Twarde i miękkie zera i jedynki 26
2.17 Tabela prawdy operatora implikacji prostej p||=>q 27
2.17.1 Zero-jedynkowa definicja warunku wystarczającego p=>q 27


2.10 Podstawowe spójniki implikacyjne
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

I Prawo Sowy
Dla udowodnienia prawdziwości wszystkich zdań serii Ax potrzeba i wystarcza udowodnić prawdziwość dowolnego zdania serii Ax
Dla udowodnienia fałszywości wszystkich zdań serii Ax potrzeba i wystarcza udowodnić fałszywość dowolnego zdania serii Ax
##
II Prawo Sowy
Dla udowodnienia prawdziwości wszystkich zdań serii Bx potrzeba i wystarcza udowodnić prawdziwość dowolnego zdania serii Bx
Dla udowodnienia fałszywości wszystkich zdań serii Bx potrzeba i wystarcza udowodnić fałszywość dowolnego zdania serii Bx
Gdzie:
## - różne na mocy definicji

Definicja podstawowego spójnika implikacyjnego:
Podstawowy spójnik implikacyjny to spójnik definiowany kolumną A1B1 w matematycznych związkach warunku wystarczającego => i koniecznego ~> dający odpowiedź na pytanie o p:
Co się stanie jeśli zajdzie p?
A1: p=>q =? - czy zajście p jest wystarczające => dla zajścia q? TAK=1/NIE=0
B1: p~>q =? - czy zajście p jest konieczne ~> dla zajścia q? TAK=1/NIE=0
A1B1: p?q = (~)(A1: p=>q)*(~)(B1: p~>q)
Gdzie:
? - symbol spójnika implikacyjnego
(~) - symbol negacji który może wystąpić, ale nie musi, w zależności od wartości logicznej A1 i B1

Z definicji spójnika implikacyjnego wynika, że możliwe są cztery podstawowe spójniki implikacyjne:

1.
Implikacja prosta p|=>q:

Implikacja prosta p|=>q to zachodzenie wyłącznie warunku wystarczającego => między tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(0)=1*1=1
;
Definicja warunku wystarczającego =>:
p=>q = ~p+q
Definicja warunku koniecznego ~>:
p~>q = p+~q
Definicja implikacji prostej p|=>q:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)
Korzystając z definicji znaczków => i ~> mamy:
Y = (p|=>q) = (~p+q)*~(p+~q) = (~p+q)*(~p*q) =~p*~p*q+q*~p*q = ~p*q+~p*q=~p*q
Kolejność wykonywania działań w algebrze Kubusia:
Negacja (~), nawiasy, "i"(*), "lub"(+)

Do zapamiętania:
Definicja implikacji prostej p|=>q w spójnikach "i"(*) i "lub"(+):
Y = (p|=>q) = ~p*q

##
2.
Implikacja odwrotna p|~>q:

Implikacja odwrotna p|~>q to zachodzenie wyłącznie warunku koniecznego ~> między tymi samymi punktami i w tym samym kierunku
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
p|~>q = ~(A1: p=>q)*(B1: p~>q)=1*1=1
;
Definicja warunku wystarczającego =>:
p=>q = ~p+q
Definicja warunku koniecznego ~>:
p~>q = p+~q
Definicja implikacji odwrotnej p|~>q:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)
Korzystając z definicji znaczków => i ~> mamy:
Y = (p|~>q) = ~(~p+q)*(p+~q) = (p*~q)*(p+~q) =(p*~q)*p + (p*~q)*~q = p*~q+p*~q = p*~q

Do zapamiętania:
Definicja implikacji odwrotnej p|~>q w spójnikach "i"(*) i "lub"(+):
Y = (p|~>q) = p*~q

##
3.
Równoważność p<=>q:

Równoważność p<=>q to zachodzenie zarówno warunku wystarczającego => jak i koniecznego ~> miedzy tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
p<=>q = (A1: p=>q)*(B1: p~>q)=1*1=1
;
Definicja warunku wystarczającego =>:
p=>q = ~p+q
Definicja warunku koniecznego ~>:
p~>q = p+~q
Stąd mamy:
Y = p<=>q = (A1: p=>q)*(B1: p~>q) = (~p+q)*(p+~q) = ~p*p + ~p~q + q*p + q*~q = p*q+~p*~q

Do zapamiętania:
Definicja równoważności p<=>q w spójnikach "i"(*) i "lub"(+):
Y = p<=>q = p*q + ~p*~q

##
4.
Chaos p|~~>q:

Chaos p|~~>q to nie zachodzenie ani warunku wystarczającego =>, ani też koniecznego ~> miedzy tymi samymi punktami i w tym samym kierunku
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
p|~~>q = ~(A1: p=>q)*~(B1: p~>q)=~(0)*~(0)=1*1=1
;
Definicja chaosu w spójnikach "lub"(+) i "i"(*):
Chaos p|~~>q to zdanie zawsze prawdziwe przez wszystkie możliwe przeczenia p i q
Y = p*q+~p*q + p*~q + ~p*~q = q*(p+~p)+~q*(p+~p) = q+~q =1

Do zapamiętania:
Definicja chaosu p|~~>q w spójnikach "lub"(+) i "i"(*):
Y = p*q+~p*q + p*~q + ~p*~q =1

Gdzie:
## - różne na mocy definicji

2.10.1 Prawo Puchacza

Prawo Puchacza:
Dowolne zdanie warunkowe „Jeśli p to q” może wchodzić w skład jednego i tylko jednego spójnika implikacyjnego.

Dowód prawa Puchacza będzie polegał na założeniu, iż zdanie warunkowe „Jeśli p to q” jest częścią spójnika implikacyjnego x i pokazaniu iż pozostałe spójniki będą dla tego przypadku fałszem.

Dowód prawa Puchacza:

I.
Założenie p|=>q

Załóżmy że zdanie warunkowe „Jeśli p to q” jest częścią implikacji prostej p|=>q
Wtedy mamy:
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
Stąd:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(0)=1*1=1

Badamy prawdziwość/fałszywość pozostałych, podstawowych spójników implikacyjnych:
2.
Implikacja odwrotna p|~>q:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(1)*0=0*0=0
3.
Równoważność p<=>q:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) = 1*0=0
4.
Chaos p|~~>q:
A1B1: p|~~>q = ~(A1: p=>q)*~(B1: p~>q) = ~(1)*~(0)=0*1=0
c.n.d.

II.
Założenie p|~>q

Załóżmy że zdanie warunkowe „Jeśli p to q” jest częścią implikacji odwrotnej p|~>q
Wtedy mamy:
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(0)*1=1*1=1

Badamy prawdziwość/fałszywość pozostałych, podstawowych spójników implikacyjnych:
1.
Implikacja prosta p|=>q:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=0*~(1)=0*0=0
3.
Równoważność p<=>q:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) = 0*1=0
4.
Chaos p|~~>q:
A1B1: p|~~>q = ~(A1: p=>q)*~(B1: p~>q) = ~(0)*~(1)=1*0=0
c.n.d.

III.
Założenie p<=>q

Załóżmy że zdanie warunkowe „Jeśli p to q” jest częścią równoważności p<=>q
Wtedy mamy:
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd:
A1B1: p|~>q = (A1: p=>q)*(B1: p~>q)=1*1=1

Badamy prawdziwość/fałszywość pozostałych, podstawowych spójników implikacyjnych:
1.
Implikacja prosta p|=>q:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(1)=1*0=0
2.
Implikacja odwrotna p|~>q:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(1)*1=0*1=0
4.
Chaos p|~~>q:
A1B1: p|~~>q = ~(A1: p=>q)*~(B1: p~>q) = ~(1)*~(1)=0*0=0
c.n.d.

IV
Założenie p|~~>q

Załóżmy że zdanie warunkowe „Jeśli p to q” jest częścią chaosu p|~~>q
Wtedy mamy:
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
Stąd:
A1B1: p|~~>q = ~(A1: p=>q)*~(B1: p~>q)=~(0)*~(0)=1*1=1

Badamy prawdziwość/fałszywość pozostałych, podstawowych spójników implikacyjnych:
1.
Implikacja prosta p|=>q:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=0*~(0)=0*1=0
2.
Implikacja odwrotna p|~>q:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(0)*0=1*0=0
3.
Równoważność p<=>q:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) = 0*0=0
ok
c.n.d.

Rozpatrzyliśmy wszystkie możliwe przypadki I, II, III i IV pozytywnie, co kończy dowód prawa Puchacza.

2.11 Algorytm Puchacza
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p
      ##        ##           ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Uwaga:
Na mocy praw Sowy prawdziwość podstawowego spójnika implikacyjnego p?q definiowanego kolumną A1B1 (pytanie o p) wymusza prawdziwość odpowiedniego operatora implikacyjnego p|?q definiowanego dwoma kolumnami A1B1 (pytanie o p) i A2B2 (pytanie o ~p).

Prawo Kłapouchego:
Domyślny punkt odniesienia dla zdań warunkowych „Jeśli p to q”:
W zapisie aktualnym zdań warunkowych (w przykładach) po „Jeśli…” mamy zdefiniowaną przyczynę p zaś po „to..” mamy zdefiniowany skutek q z pominięciem przeczeń.
Prawo Kłapouchego determinuje wspólny dla wszystkich ludzi punktu odniesienia zawarty wyłącznie w kolumnach A1B1 oraz A2B2, dający odpowiedź na pytanie o p (A1B1) oraz o ~p (A2B2).

Algorytm Puchacza to przyporządkowania dowolnego zdania warunkowego "Jeśli p to q" (także fałszywego = fałszywy kontrprzykład) do określonego operatora implikacyjnego.

Algorytm Puchacza:
1.
W zdaniu warunkowym "Jeśli p to q" przeznaczonym do analizy lokalizujemy p i q z pominięciem przeczeń, zgodnie z prawem Kłapouchego bez analizy czy zdanie w oryginale jest prawdziwe/fałszywe.
Prawo Kłapouchego lokalizuje nas w kolumnie A1B1, gdzie mamy brak zaprzeczonego poprzednika p.
Prawo Kłapouchego jest tożsame z otwarciem drzwiczek pudełka z kotem Schrödingera (pkt. 5.4.1)
2.
Poprzednik p i następnik q muszą spełniać definicję wspólnej dziedziny D zarówno dla p jak i dla q
Definicja dziedziny D dla p:
p+~p =D =1
p*~p=[] =0
Definicja tej samej dziedziny D dla q:
q+~q =D =1
q*~q =[] =0
3.
Zbiory/zdarzenia p, q, ~p, ~q muszą być niepuste, bowiem z definicji nie możemy operować na zbiorach/zdarzeniach pustych (pkt 12.8)
4.
Zdania warunkowe "Jeśli p to q" które nie spełniają punktów 1,2,3 są matematycznie fałszywe.

5.
Prawo Puchacza:
Dowolne zdanie warunkowe "Jeśli p to q" należy do jednego z 5 rozłącznych operatorów implikacyjnych p|?q wtedy i tylko wtedy gdy spełnione są warunki 1, 2 i 3 algorytmu Puchacza.
Rozłączne operatory implikacyjne to:
a) p||=>q - operator implikacji prostej (2.12.1)
b) p||~>q - operator implikacji odwrotnej (2.13.1)
c) p|<=>q - operator równoważności (2.14.1)
d) p||~~>q - operator chaosu (2.15.1)
e) p|$q - operator "albo"(|$) (7.2.1)
6.
Korzystając z praw algebry Kubusia wyznaczamy prawdziwość/fałszywość warunku wystarczającego A1: p=>q dla niezanegowanego p:
A1: p=>q =?
7.
Dla tych samych parametrów p i q wyznaczamy prawdziwość/fałszywość warunku koniecznego B1: p~>q dla niezanegowanego p:
B1: p~>q =?
W punktach 6 i 7 p i q muszą być wszędzie tymi samymi p i q inaczej błąd postawienia

Rozstrzygnięcia 6 i 7 możemy badać w odwrotnej kolejności, matematycznie to bez znaczenia.
Rozwiązanie kluczowych punktów 6 i 7 jednoznacznie definiuje nam spójnik implikacyjny p?q definiowany kolumną A1B1, a tym samym (na mocy praw Sowy) operator implikacyjny p|?q do którego należy badane zdanie.

2.11.1 Przykłady zdań niespełniających algorytmu Puchacza

Zdania warunkowe "Jeśli p to q" które nie spełniają punktów 1,2,3 algorytmu Puchacza są matematycznie fałszywe.

Ad. 1
W punkcie 1 chodzi o to, że jeśli przystępujemy do analizy matematycznej zdania "Jeśli p to q" to musimy zastosować prawo Kłapouchego, inaczej dostaniemy nietrywialny błąd podstawienia ### (pkt. 2.7.4)

Ad. 2
A1.
Jeśli liczba jest podzielna przez 2 to trójkąt może być prostokątny
P2~~>TP =0
Brak wspólnej dziedziny.
Stąd mamy:
Zdanie A1 jest fałszywe na mocy punktu 2 algorytmu Puchacza.

Ad. 3
Prawo Michała:
Warunkiem koniecznym ~> prawdziwości dowolnego zdania warunkowego "Jeśli p to q" jest brak znajomości z góry wartości logicznej zarówno poprzednika p jak i następnika q przy spełnionym warunku p##q
Gdzie:
p##q
## - różne na mocy definicji

Dowód:
Jeśli prawo Michała jest spełnione to na 100% nie jest spełniony punkt 3 algorytmu Puchacza, czyli jedno z wymaganych przeczeń p i q {p, q, ~p, ~q} będzie zdarzeniem/zbiorem pustym

Przykłady zdań podpadających pod prawo Michała:
1.
Jeśli 2+2=5, to kot ma 4 łapki
p##q - p jest różne na mocy definicji od q
p=[] =0
q=1
Prawo Michała jest spełnione, zdanie 1 jest fałszem
2.
Jeśli słoń jest ssakiem, to kot ma 4 łapki
p##q - p jest różne na mocy definicji ## od q
p=1
q=1
Słoń nie jest ssakiem
~p=~S = [] =0
Prawo Michała jest spełnione, zdanie 2 jest fałszem.

2.11.2 Zdanie warunkowe typu „Jeśli p to p”

Rozważmy zdanie warunkowe:
A1.
Jeśli p to p

1.
Dowód ogólny prawdziwości zdania A1:

A1.
Jeśli p to q
Gdzie:
p=q

Prawo Irbisa:
Dwa pojęcia/zdarzenia/zbiory są tożsame p=q wtedy i tylko wtedy gdy znajdują się w relacji równoważności p<=>q (albo odwrotnie)
A1B1: p=q <=> (A1: p=>q)*(B1: p~>q) = p<=>q

Definicja warunku wystarczającego =>:
p=>q = ~p+q
Definicja warunku koniecznego ~>:
p~>q = p+~q

Stąd dla zdania “Jeśli p to q” przy założeniu że zachodzi p=q mamy:
A1: p=>q = A1: p=>p = A1: ~p+p =1
B1: p~>q = B1: p~>p = B1: p+~p =1
cnd

2.
Ogólny dowód alternatywny prawdziwości zdania A1:


Rozważmy zdanie warunkowe:
A1.
Jeśli p to q
Gdzie:
p=q
Takie zdanie jest prawdziwe dla dowolnej wspólnej dziedziny dla p i q
W szczególności wspólną dziedziną może tu być nawet Uniwersum

Definicja Uniwersum:
Uniwersum to zbiór wszelkich pojęć zrozumiałych dla człowieka

Wyznaczenie p i ~p dla poprzednika p:
p=p
~p=[U-p] – zbiór wszystkie pojęć zrozumiałych dla człowiek minus jedno pojęcie p
Wyznaczenie q i ~q dla następnika q:
q=p (z założenia)
~q=~p = [U-p] - zbiór wszystkie pojęć zrozumiałych dla człowiek minus jedno pojęcie p

Definicja równoważności p<=>q w relacjach podzbioru =>:
A1B2: p<=>q = (A1: p=>q)*(B2: ~p=>~q) =1*1=1
Dla naszego przykładu p=q mamy:
A1B2: p<=>p = (A1: p=>p)*(B2: [U-p] => [U-p] =1*1=1
Dowód prawdziwości zdań składowych A1 i B2:
A1: p=>q =1 – bo każdy zbiór jest podzbiorem => siebie samego
B2: [U-p] => [U-p] =1 – bo każdy zbiór jest podzbiorem => siebie samego
cnd

Przykład:
Jeśli dowolne zwierzę jest psem to na 100% jest psem
P=>P =1
Przyjmijmy dziedzinę:
ZWZ – zbiór wszystkich zwierząt
Powyższe zdanie to „masło maślne” z zerową użytecznością w języku potocznym.

Obliczmy przeczenia zbiorów które muszą być niepuste
p=[Pies]
q=[Pies]
~p=[ZWZ-p] – zbiór wszystkich zwierząt z wykluczeniem jednego zwierzątka [Pies]
~q=[ZWZ-q] – zbiór wszystkich zwierząt z wykluczeniem jednego zwierzątka [Pies]

Definicja równoważności w relacjach podzbioru =>:
A1B2: p<=>q = (A1: p=>q)*(B2: ~p=>~q) =1*1=1
Dla naszego przykładu mamy:
A1B2: P<=>P = (A1: P=>P)*(B2: [ZWZ-P] => [ZWZ-P] =1*1=1
Dowód prawdziwości zdań składowych A1 i B2:
A1: P=>P =1 – bo każdy zbiór jest podzbiorem => siebie samego
B2: [ZWZ-P] => [ZWZ-P] =1 – bo każdy zbiór jest podzbiorem => siebie samego
cnd

2.11.3 Zdanie warunkowe typu „Jeśli [] to []”

Rozważmy zdanie ogólne:
A1.
Jeśli zbiór pusty [] to zbiór pusty []
[]=>[] =1
Bo każdy zbiór jest podzbiorem => siebie samego, także zbiór pusty []
Wyjaśnienie w punkcie 12.8 w części głównej algebry Kubusia.

Rozważmy zdanie:
A2.
Jeśli 2+2=5 to jestem papieżem
p=[2+2=5] =[] =0 - twarde zero
q=[jestem papieżem] =[] =0 - twarde zero
Stąd zapis formalny:
p=>q = []=>[] =0
Z punktu widzenia algorytmu Puchacza zdanie A2 jest fałszem bo nie jesteśmy w stanie operować na zbiorze pustym [], czyli jest tu spełniony punkt 3 algorytmu Puchacza.
Z innego punktu odniesienia, z punktu odniesienia zbioru pustego [] w sensie absolutnym (pkt. 12.8.1) zdanie A2 będzie prawdziwe. (prawo Owieczki pkt. 12.9.3)
W matematyce nie ma w tym nic dziwnego - patrz prawo Kameleona (pkt. 2.16.1)

2.12 Implikacja prosta p|=>q

Definicja implikacji prostej p|=>q:
Implikacja prosta p|=>q to spełniony wyłącznie warunek wystarczający => między tymi samymi punktami i w tym samym kierunku.
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
Stąd:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) = 1*~(0)=1*1=1
Prawą stronę czytamy:
Zajście p jest (=1) wystarczające => dla zajścia q (A1), ale nie jest (=0) konieczne ~> dla zajścia q (B1)

Podstawmy definicję implikacji prostej p|=>q do matematycznych związków warunku wystarczającego => i koniecznego ~> z uwzględnieniem definicji kontrprzykładu, obowiązującego wyłącznie w warunku wystarczającym =>.
Kod:

IP:
Implikacja prosta p|=>q:
A1: p=>q =1 - p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) = 1*~(0)=1*1=1
Matematyczne związki warunku wystarczającego => i koniecznego ~>
w implikacji prostej p|=>q
       A1B1:         A2B2:      |     A3B3:           A4B4:
A:  1: p=>q  =1  = 2:~p~>~q =1 [=] 3: q~>p  =1  =  4:~q=>~p =1
A': 1: p~~>~q=0                [=]                 4:~q~~>p =0
       ##             ##              ##              ##
B:  1: p~>q  =0  = 2:~p=>~q =0 [=] 3: q=>p  =0  =  4:~q~>~p =0
B':                2:~p~~>q =1 [=] 3: q~~>~p=1   
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Prawa Sowy:
Prawdziwość dowolnego zdania serii Ax wymusza prawdziwość pozostałych zdań
Fałszywość dowolnego zdania serii Bx wymusza fałszywość pozostałych zdań

2.12.1 Operator implikacji prostej p||=>q

Definicja operatora implikacji prostej p||=>q:
Operator implikacji prostej p||=>q to układ równań A1B1 i A2B2 dający odpowiedź na pytanie o p (A1B1) i ~p (A2B2).
Kolumna A1B1:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) - co może się wydarzyć jeśli zajdzie p?
Kolumna A2B2:
A2B2: ~p|~>~q = (A2:~p~>~q)*~(B2: ~p=>~q) - co może się wydarzyć jeśli zajdzie ~p?

Matematycznie zachodzi tożsamość logiczna [=]:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) [=] A2B2: ~p|~>~q = (A2:~p~>~q)*~(B2: ~p=>~q)

Dowód na mocy praw Sowy jest oczywisty.

Dowód alternatywny:
Definicja implikacji prostej p|=>q w spójnikach "i"(*) i "lub"(+):
A1B1: p|=>q = ~p*q (pkt. 2.10)
Definicja implikacji odwrotnej p|~>q w spójnikach "i"(*) i "lub"(+):
A2B2: p|~>q = p*~q (pkt. 2.10)
Mamy do udowodnienia tożsamość logiczną [=]:
A1B1: p|=>q [=] A2B2: ~p|~>~q
Rozwijamy prawą stronę definicją |~>:
A2B2: ~p|~>~q = (~p)*~(~q) = ~p*q = A1B1: p|=>q
cnd

A1B1:
Co może się wydarzyć jeśli zajdzie p?

Odpowiedź na to pytanie mamy w kolumnie A1B1:
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) = 1*~(0)=1*1=1
Prawą stronę czytamy:
Zajście p jest (=1) warunkiem wystarczającym => dla zajścia q (A1), ale nie jest (=0) warunkiem koniecznym ~> dla zajścia q (B1)

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A1B1:
A1.
Jeśli zajdzie p to na 100% => zajdzie q
p=>q =1
Zajście p jest (=1) wystarczające => dla zajścia q
Zajście p daje nam (=1) gwarancję matematyczną => zajścia q
Zachodzi tożsamość pojęć:
Warunek wystarczający => = gwarancja matematyczna =>
Innymi słowy:
Zawsze gdy zajdzie p, zajdzie q

Prawdziwy warunek wystarczający A1: p=>q=1 wymusza fałszywy kontrprzykład A1' (i odwrotnie)
A1'.
Jeśli zajdzie p to może ~~> zajść ~q
p~~>~q=p*~q =0
Zdarzenia:
Niemożliwe jest (=0) jednoczesne zajście zdarzeń ~~>: p i ~q
Zbiory:
Nie istnieje (=0) wspólny element zbiorów ~~>: p i ~q
To jest dowód "nie wprost" fałszywości zdania A1' na mocy definicji kontrprzykładu.

… a jeśli zajdzie ~p?
Prawo Kubusia:
A1: p=>q = A2: ~p~>~q
Idziemy do kolumny A2B2.

A2B2:
Co może się wydarzyć jeśli zajdzie ~p?

Odpowiedź na to pytanie mamy w kolumnie A2B2:
A2: ~p~>~q =1 - zajście ~p jest (=1) konieczne ~> dla zajścia ~q
B2: ~p=>~q =0 - zajście ~p nie jest (=0) wystarczające => dla zajścia ~q
A2B2: ~p|~>~q = (A2:~p~>~q)*~(B2: ~p=>~q) = 1*~(0)=1*1=1
Prawą stronę czytamy:
Zajście ~p jest (=1) warunkiem koniecznym ~> dla zajścia ~q (A2), ale nie jest (=0) warunkiem wystarczającym => dla zajścia ~q (B2).

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A2B2:
A2.
Jeśli zajdzie ~p to może ~> zajść ~q
~p~>~q =1
Zajście ~p jest (=1) warunkiem koniecznym ~> dla zajścia ~q
Innymi słowy:
Zajście ~p jest konieczne ~> dla zajścia ~q wtedy i tylko wtedy gdy zajście p jest wystarczające => dla zajścia q
Prawo Kubusia samo nam tu wyskoczyło:
A2: ~p~>~q = A1: p=>q

lub

Fałszywy warunek wystarczający B2: ~p=>~q=0 wymusza prawdziwy kontrprzykład B2' (i odwrotnie)
B2'.
Jeśli zajdzie ~p to może ~~> zajść q
~p~~>q =~p*q =1
Zdarzenia:
Możliwe jest (=1) jednoczesne zajście zdarzeń ~~>: ~p i q
Zbiory:
Istnieje (=1) wspólny element zbiorów ~~>: ~p i q
Na mocy definicji kontrprzykładu fałszywość warunku wystarczającego B2: ~p=>~q =0 wymusza prawdziwość kontrprzykładu B2': ~p~~>q=1 (i odwrotnie).
To jest dowód "nie wprost" prawdziwości zdania B2'

Podsumowanie:
Jak widzimy, istotą operatora implikacji prostej p||=>q jest gwarancja matematyczna => po stronie p (zdanie A1), oraz „rzucanie monetą” w sensie „na dwoje babka wróżyła” po stronie ~p (zdania A2 i B2’) .

Zauważmy że:
a)
Układ równań logicznych jest przemienny, stąd mamy:
Operator implikacji odwrotnej ~p||~>~q to układ równań logicznych:
A2B2: ~p|~>~q = (A2:~p~>~q)*~(B2: ~p=>~q) - co może się wydarzyć jeśli zajdzie ~p?
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) - co może się wydarzyć jeśli zajdzie p?
Doskonale widać, że analiza matematyczna operatora implikacji odwrotnej A2B2: ~p||~>~q w logice ujemnej (bo ~q) będzie identyczna jak operatora implikacji prostej A1B1: p||=>q w logice dodatniej (bo q) z tym, że zaczynamy od kolumny A2B2 kończąc na kolumnie A1B1.
b)
Także kolejność wypowiadanych zdań jest dowolna, tak więc zdania z powyższej analizy A1, A1’, A2, B2’ możemy wypowiadać w sposób losowy - matematycznie to bez znaczenia.

Uwaga:
Przykład implikacji prostej P|=>CH i operatora implikacji prostej P||=>CH znajdziemy w punkcie 3.4 i 3.4.1.

2.13 Implikacja odwrotna p|~>q

Definicja implikacji odwrotnej p|~>q:
Implikacja odwrotna p|~>q to spełniony wyłącznie warunek konieczny ~> między tymi samymi punktami i w tym samym kierunku.
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) = ~(0)*1=1*1=1
Prawą stronę czytamy:
Zajście p jest (=1) konieczne ~> dla zajścia q (B1), ale nie jest (=0) wystarczające => dla zajścia q (A1).

Podstawmy definicję implikacji odwrotnej p|~>q do matematycznych związków warunku wystarczającego => i koniecznego ~> z uwzględnieniem definicji kontrprzykładu, obowiązującego wyłącznie w warunku wystarczającym =>.
Kod:

IO:
Implikacja odwrotna p|~>q:
A1: p=>q =0 - p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - p jest (=1) konieczne ~> dla zajścia q
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) = ~(0)*1=1*1=1
Matematyczne związki warunku wystarczającego => i koniecznego ~>
w implikacji odwrotnej p|~>q
       A1B1:         A2B2:      |     A3B3:           A4B4:
A:  1: p=>q  =0  = 2:~p~>~q =0 [=] 3: q~>p  =0  =  4:~q=>~p =0
A': 1: p~~>~q=1                [=]                 4:~q~~>p =1
       ##             ##              ##              ##
B:  1: p~>q  =1  = 2:~p=>~q =1 [=] 3: q=>p  =1  =  4:~q~>~p =1
B':                2:~p~~>q =0 [=] 3: q~~>~p=0   
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Prawa Sowy:
Prawdziwość dowolnego zdania serii Bx wymusza prawdziwość pozostałych zdań
Fałszywość dowolnego zdania serii Ax wymusza fałszywość pozostałych zdań

2.13.1 Operator implikacji odwrotnej p||~>q

Definicja operatora implikacji odwrotnej p||~>q:
Operator implikacji odwrotnej p||~>q to układ równań A1B1 i A2B2 dający odpowiedź na pytanie o p (A1B1) i ~p (A2B2)
Kolumna A1B1:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) - co może się wydarzyć jeśli zajdzie p?
Kolumna A2B2:
A2B2: ~p|=>~q = ~(A2:~p~>~q)*(B2: ~p=>~q) - co może się wydarzyć jeśli zajdzie ~p?

Matematycznie zachodzi tożsamość logiczna [=]:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) [=] A2B2: ~p|=>~q = ~(A2:~p~>~q)*(B2: ~p=>~q)

Dowód na mocy praw Sowy jest oczywisty.

Dowód alternatywny:
Definicja implikacji odwrotnej p|~>q w spójnikach "i"(*) i "lub"(+):
A1B1: p|~>q = p*~q (pkt. 2.10)
Definicja implikacji prostej p|=>q w spójnikach "i"(*) i "lub"(+):
A2B2: p|=>q = ~p*q (pkt. 2.10)
Mamy do udowodnienia tożsamość logiczną [=]:
A1B1: p|~>q [=] A2B2: ~p|=>~q
Rozwijamy prawą stronę definicją |=>:
A2B2: ~p|=>~q = ~(~p)*(~q) = p*~q = A1B1: p|~>q
cnd

A1B1:
Co może się wydarzyć jeśli zajdzie p?

Odpowiedź na to pytanie mamy w kolumnie A1B1:
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) = ~(0)*1=1*1=1
Prawą stronę czytamy:
Zajście p jest (=1) warunkiem koniecznym ~> dla zajścia q (B1), ale nie jest (=0) warunkiem wystarczającym => dla zajścia q (A1)

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A1B1:
B1.
Jeśli zajdzie p to może ~> zajść zajdzie q
p~>q =1
Zajście p jest konieczne ~> dla zajścia q
Innymi słowy:
Zajście p jest konieczne ~> dla zajścia q wtedy i tylko wtedy gdy zajście ~p jest wystarczające => dla zajścia ~q
Prawo Kubusia samo nam tu wyskoczyło:
B1: p~>q = B2: ~p=>~q

lub

Fałszywy warunek wystarczający A1: p=>q=0 wymusza prawdziwy kontrprzykład A1' (i odwrotnie)
A1'
Jeśli zajdzie p to może ~~> zajść ~q
p~~>~q=p*~q =1
Zdarzenia:
Możliwe jest (=1) jednoczesne zajście zdarzeń ~~>: p i ~q
Zbiory:
Istnieje (=1) wspólny element zbiorów ~~>: p i ~q
Innymi słowy:
Fałszywość warunku wystarczającego A1: p=>q =0 wymusza prawdziwość kontrprzykładu A1' (i odwrotnie). To jest dowód "nie wprost" prawdziwości zdania A1'

.. a jeśli zajdzie ~p?
Prawo Kubusia:
B1: p~>q = B2: ~p=>~q
Idziemy do kolumny A2B2.

A2B2:
Co może się wydarzyć jeśli zajdzie ~p?

Odpowiedź na to pytanie mamy w kolumnie A2B2:
A2: ~p~>~q =0 - zajście ~p nie jest (=0) konieczne ~> dla zajścia ~q
B2: ~p=>~q =1 - zajście ~p jest (=1) wystarczające => dla zajścia ~q
A2B2: ~p|=>~q = ~(A2:~p~>~q)*(B2: ~p=>~q) = ~(0)*1=1*1=1
Prawą stronę czytamy:
Zajście ~p jest (=1) warunkiem wystarczającym => dla zajścia ~q (B2), ale nie jest (=0) warunkiem koniecznym ~> dla zajścia ~q (A2).

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A2B2:
B2
Jeśli zajdzie ~p to na 100% => zajdzie ~q
~p=>~q =1
Zajście ~p jest (=1) warunkiem wystarczającym => dla zajścia ~q
Zajście ~p daje nam (=1) gwarancję matematyczną => zajścia ~q
Zachodzi tożsamość pojęć:
Warunek wystarczający => = gwarancja matematyczna =>
Innymi słowy:
Zawsze gdy zajdzie ~p, zajdzie ~q

Prawdziwy warunek wystarczający B2:~p=>~q=1 wymusza fałszywy kontrprzykład B2' (i odwrotnie)
B2'
Jeśli zajdzie ~p to może ~~> zajść q
~p~~>q = ~p*q =0
Zdarzenia:
Niemożliwe jest (=0) jednoczesne zajście zdarzeń ~~>: ~p i q
Zbiory:
Nie istnieje (=0) wspólny element zbiorów ~~>: ~p i q
To jest dowód "nie wprost" fałszywości zdania B2' na mocy definicji kontrprzykładu.

Podsumowanie:
Jak widzimy, istotą operatora implikacji odwrotnej p||~>q jest „rzucanie monetą” w sensie „na dwoje babka wróżyła” po stronie p (zdania B1 i A1’), oraz gwarancja matematyczna => po stronie ~p (zdanie B2)

Zauważmy że:
a)
Układ równań logicznych jest przemienny, stąd mamy:
Operator implikacji prostej ~p||=>~q to układ równań logicznych:
A2B2: ~p|=>~q = ~(A2:~p~>~q)*(B2: ~p=>~q) - co może się wydarzyć jeśli zajdzie ~p?
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) - co może się wydarzyć jeśli zajdzie p?
Doskonale widać, że analiza matematyczna operatora implikacji prostej A2B2: ~p||=>~q w logice ujemnej (bo ~q) będzie identyczna jak operatora implikacji odwrotnej A1B1: p||~>q w logice dodatniej (bo q) z tym, że zaczynamy od kolumny A2B2 kończąc na kolumnie A1B1.
b)
Także kolejność wypowiadanych zdań jest dowolna, tak więc zdania z powyższej analizy B1, A1’, B2, B2’ możemy wypowiadać w sposób losowy - matematycznie to bez znaczenia.

Uwaga:
Przykład implikacji odwrotnej CH|~>P i operatora implikacji odwrotnej CH||~>P znajdziemy w punkcie 4.4 i 4.4.1

2.14 Równoważność p<=>q

Definicja równoważności p<=>q:
Równoważność p<=>q to zachodzenie zarówno warunku wystarczającego =>, jak i koniecznego ~> między tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) = 1*1=1
Lewą stronę czytamy:
Zajdzie p wtedy i tylko wtedy gdy zajdzie q
Prawą stronę czytamy:
Zajście p jest warunkiem koniecznym ~> (B1) i wystarczającym => (A1) dla zajścia q
Innymi słowy:
Do tego aby zaszło q potrzeba ~> (B1) i wystarcza => aby zaszło p

Prawo Irbisa:
Każda równoważność prawdziwa p<=>q definiuje tożsamość zdarzeń/zbiorów p=q (i odwrotnie)
Dowód (pkt. 2.9)

Tabela prawdy równoważności p<=>q z uwzględnieniem prawa Irbisa oraz definicji kontrprzykładu, obowiązującego wyłącznie w warunku wystarczającym =>
Kod:

TR
Tabela prawdy równoważności p<=>q z uwzględnieniem prawa Irbisa
Matematyczne związki warunku wystarczającego => i koniecznego ~>
w równoważności p<=>q
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy definicję równoważności A1B1: p<=>q w równaniu logicznym:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1 =1
       A1B1:         A2B2:      |     A3B3:           A4B4:
A:  1: p=>q  =1  = 2:~p~>~q =1 [=] 3: q~>p  =1  =  4:~q=>~p =1
A': 1: p~~>~q=0                [=]                 4:~q~~>p =0
       ##             ##              ##              ##
B:  1: p~>q  =1  = 2:~p=>~q =1 [=] 3: q=>p  =1  =  4:~q~>~p =1
B':                2:~p~~>q =0 [=] 3: q~~>~p=0   
-----------------------------------------------------------------------
Równoważność <=> definiuje:     |     Równoważność <=> definiuje:
AB: 1: p<=>q=1 = 2:~p<=>~q=1   [=] 3: q<=>p=1   =  4:~q<=>~p=1
tożsamość zdarzeń/zbiorów:      |     tożsamość zdarzeń/zbiorów:
AB: 1: p=q     # 2:~p=~q        |  3: q=p       #  4:~q=~p
Gdzie:
# - różne w znaczeniu iż jedna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia
"=",[=],<=> - tożsame znaczki tożsamości logicznej

Prawa Sowy:
Prawdziwość dowolnego zdania serii Ax wymusza prawdziwość pozostałych zdań
Prawdziwość dowolnego zdania serii Bx wymusza prawdziwość pozostałych zdań

2.14.1 Operator równoważności p|<=>q

Definicja operatora równoważności p|<=>q:
Operator równoważności p|<=>q to układ równań A1B1 i A2B2 dający odpowiedź na pytanie o p (A1B1) i ~p (A2B2).
Kolumna A1B1:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) - co może się wydarzyć jeśli zajdzie p?
Kolumna A2B2:
A2B2: ~p<=>~q = (A2:~p~>~q)*(B2: ~p=>~q) - co może się wydarzyć jeśli zajdzie ~p?

Matematycznie zachodzi tożsamość logiczna [=]:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) [=] A2B2: ~p<=>~q = (A2:~p~>~q)*(B2: ~p=>~q)

Dowód na mocy praw Sowy jest oczywisty

Dowód alternatywny:
Definicja równoważności p<=>q w spójnikach "i"(*) i "lub"(+):
A1B1: p<=>q = p*q+~p*~q (pkt. 2.10)
Mamy do udowodnienia tożsamość logiczną [=]:
A1B1: p<=>q [=] A2B2: ~p<=>~q
Rozwijamy prawą stronę definicją <=>:
A2B2: ~p<=>~q = (~p)*(~q) + ~(~p)*~(~q)= ~p*~q + p*q = p*q+~p*~q = A1B1: p<=>q
cnd

A1B1:
Co może się wydarzyć jeśli zajdzie p?

Odpowiedź na to pytanie mamy w kolumnie A1B1:
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1=1
Czytamy:
Równoważność p<=>q w logice dodatniej (bo q) jest spełniona (=1) wtedy i tylko wtedy gdy
zajście p jest (=1) konieczne ~> (B1) i wystarczające => (A1) dla zajścia q

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A1B1:
A1.
Jeśli zajdzie p to na 100% => zajdzie q
p=>q =1
Zajście p jest (=1) wystarczające => dla zajścia q
Zajście p daje nam (=1) gwarancję matematyczną => zajścia q
Zachodzi tożsamość pojęć:
Warunek wystarczający => = gwarancja matematyczna => = na 100% => etc
Innymi słowy:
Zawsze gdy zajdzie p, zajdzie q

Prawdziwy warunek wystarczający A1: p=>q=1 wymusza fałszywy kontrprzykład A1' (i odwrotnie)
A1'.
Jeśli zajdzie p to może ~~> zajść ~q
p~~>~q=p*~q =0
Zdarzenia:
Niemożliwe jest (=0) jednoczesne zajście zdarzeń ~~>: p i ~q
Zbiory:
Nie istnieje (=0) wspólny element zbiorów ~~>: p i ~q
To jest dowód "nie wprost" fałszywości zdania A1' na mocy definicji kontrprzykładu.

… a jeśli zajdzie ~p?
Idziemy do kolumny A2B2.

A2B2:
Co może się wydarzyć jeśli zajdzie ~p?

Odpowiedź na to pytanie mamy w kolumnie A2B2:
A2: ~p~>~q =1 - zajście ~p jest konieczne ~> dla zajścia ~q
B2: ~p=>~q =1 - zajście ~p jest wystarczające => dla zajścia ~q
A2B2: ~p<=>~q = (A2:~p~>~q)*(B2: ~p=>~q) =1*1=1
Czytamy:
Równoważność ~p<=>~q w logice ujemnej (bo ~q) jest spełniona (=1) wtedy i tylko wtedy gdy
zajście ~p jest (=1) konieczne ~> (A2) i wystarczające => (B2) dla zajścia ~q

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A2B2:
B2.
Jeśli zajdzie ~p to na 100% => zajdzie ~q
~p=>~q =1
Zajście ~p jest (=1) wystarczające => dla zajścia ~q

Prawdziwy warunek wystarczający B2: ~p=>~q=1 wymusza fałszywy kontrprzykład B2' (i odwrotnie)
B2'.
Jeśli zajdzie ~p to może ~~> zajść q
~p~~>q=~p*q =0
Zdarzenia:
Niemożliwe jest (=0) jednoczesne zajście zdarzeń ~~>: ~p i q
Zbiory:
Nie istnieje (=0) wspólny element zbiorów ~~>: ~p i q
To jest dowód "nie wprost" fałszywości zdania B2' na mocy definicji kontrprzykładu.

Podsumowanie:
Jak widzimy, istotą operatora równoważności p|<=>q jest gwarancja matematyczna => po stronie p (zdanie A1), jak również gwarancja matematyczna po stronie ~p (zdanie B2)

Zauważmy że:
a)
Układ równań logicznych jest przemienny, stąd mamy:
Operator równoważności ~p|<=>~q to układ równań logicznych:
A2B2: ~p<=>~q = (A2:~p~>~q)*(B2: ~p=>~q) - co się stanie jak zajdzie ~p?
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) - co się stanie jak zajdzie p?
Doskonale widać, że analiza matematyczna operatora równoważności A2B2: ~p|<=>~q w logice ujemnej (bo ~q) będzie identyczna jak operatora równoważności A1B1: p|<=>q w logice dodatniej (bo q) z tym, że zaczynamy od kolumny A2B2 kończąc na kolumnie A1B1.
b)
Także kolejność wypowiadanych zdań jest dowolna, tak więc zdania z powyższej analizy A1, A1’, B2, B2’ możemy wypowiadać w sposób losowy - matematycznie to bez znaczenia.

Uwaga:
Przykład równoważności A<=>S i operatora równoważności A|<=>S znajdziemy w punkcie 6.6 i 6.6.1

2.15 Chaos p|~~>q

Definicja chaosu p|~~>q:
Chaos p|~~>q to brak spełnienia zarówno warunku wystarczającego => jak i koniecznego ~> między tymi samym punktami i w tym samym kierunku
A1: p=>q =0 - p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =0 - p nie jest (=0) konieczne ~> dla zajścia q
Stąd:
A1B1: p|~~>q = ~(A1: p=>q)*~(B1: p~>q) = ~(0)*~(0)=1*1=1
Prawą stronę czytamy:
Zajście p nie jest (=0) konieczne ~> dla zajścia q (B1), jak również nie jest (=0) wystarczające => dla zajścia q (A1).

Podstawiając do matematycznych związków warunku wystarczającego => i koniecznego ~> mamy:
Kod:

CH
Tabela prawdy chaosu p|~~>q
Kolumna A1B1 to punkt odniesienia:
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla q
A1B1: p|~~>q=~(A1: p=>q)*~(B1: p~>q)=~(0)*~(0)=1*1=1
       A1B1:         A2B2:        |     A3B3:         A4B4:
A:  1: p=>q  =0 = 2:~p~>~q =0    [=] 3: q~>p  =0 = 4:~q=>~p =0
A’: 1: p~~>~q=1 =                [=]             = 4:~q~~>p =1
A”: 1: p~~>q =1                  [=]               4:~q~~>~p=1
       ##            ##           |     ##            ##
B:  1: p~>q  =0 = 2:~p=>~q =0    [=] 3: q=>p  =0 = 4:~q~>~p =0
B’:             = 2:~p~~>q =1    [=] 3: q~~>~p=1
B”:               2:~p~~>~q=1    [=] 3: q~~>p =1
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Komentarz:
Kolumna A1B1:
Fałszywy warunek wystarczający:
A1: p=>q=0
wymusza prawdziwość kontrprzykładu:
A1’: p~~>~q=1
Dodatkowo musi być:
A1’’: p~~>q =p*q =1
Dowód „nie wprost”.
Załóżmy, że zachodzi:
A1’’: p~~>q=p*q=0 - niemożliwe jest jednoczesne zajście zdarzeń p i q
Wtedy, na mocy definicji kontrprzykładu prawdziwy jest warunek wystarczający =>:
A1’’’: p=>~q=1
co jest sprzeczne z definicją chaosu p|~~>q gdzie o żadnym warunku wystarczającym => mowy być nie może.
cnd

Identycznie mamy w kolumnie A2B2:
Fałszywy warunek wystarczający:
B2: ~p=>~q=0
wymusza prawdziwość kontrprzykładu:
B2’: ~p~~>q = ~p*q =1 - możliwe jest (=1) jednoczesne zajście zdarzeń ~p i q
Dodatkowo musi być:
B2’’: ~p~~>~q =~p*~q=1
Dowód „nie wprost”
Załóżmy, że zachodzi:
B2’’: ~p~~>~q=~p*~q=0 - niemożliwe jest jednoczesne zajście zdarzeń ~p i ~q
Wtedy, na mocy definicji kontrprzykładu prawdziwy jest warunek wystarczający =>:
B2’’’: ~p=>q=1
co jest sprzeczne z definicją chaosu p|~~>q gdzie o żadnym warunku wystarczającym => mowy być nie może.
cnd

2.15.1 Operator chaosu p||~~>q

Definicja operatora chaosu p||~~>q
Operator chaosu p||~~>q to układ równań logicznych A1B1 i A2B2 dający odpowiedź na pytania o p i ~p:
A1B1: p|~~>q =~(A1: p=> q)*~(B1: p~>q) - co się stanie jeśli zajdzie p?
A2B2:~p|~~>~q =~(A2:~p~>~q)*~(B2:~p=>~q)- co się stanie jeśli zajdzie ~p?

A1B1:
Co się stanie jeśli zajdzie p (p=1)?


Odpowiedź mamy w kolumnie A1B1:
A1”: p~~>q = p*q =1 - możliwe jest (=1) jednoczesne zajście zdarzeń p i q
A1’: p~~>~q = p*~q =1 - możliwe jest (=1) jednoczesne zajście zdarzeń p i ~q
Innymi słowy:
Jeśli zajdzie p (p=1) to mamy najzwyklejsze „rzucanie monetą” w sensie „na dwoje babka wróżyła” - mówią o tym zdania A1” i A1’

Kolumna A1B1:
Analiza w zdaniach warunkowych „Jeśli p to q” dla spełnionego p (p=1):
A1’’.
Jeśli zajdzie p to może ~~> zajść q
p~~>q = p*q =1
Zdarzenia:
Możliwe jest (=1) jednoczesne zajście zdarzeń ~~> p i q
Zbiory:
Istnieje (=1) wspólny element ~~> zbiorów p i q

LUB

A1’.
Jeśli zajdzie p to może ~~> zajść ~q
p~~>~q = p*~q =1
Zdarzenia:
Możliwe jest (=1) jednoczesne zajście zdarzeń ~~> p i ~q
Zbiory:
Istnieje (=1) wspólny element ~~> zbiorów p i ~q

A2B2:
Co się stanie jeśli zajdzie ~p (~p=1)?


Odpowiedź mamy w kolumnie A2B2:
B2”: ~p~~>~q = ~p*~q =1 - możliwe jest (=1) jednoczesne zajście zdarzeń ~p i ~q
B2’: ~p~~>q = ~p*q =1 - możliwe jest (=1) jednoczesne zajście zdarzeń ~p i q
Innymi słowy:
Jeśli zajdzie ~p (~p=1) to mamy najzwyklejsze „rzucanie monetą” w sensie „na dwoje babka wróżyła” - mówią o tym zdania B2” i B2’

Kolumna A2B2:
Analiza w zdaniach warunkowych „Jeśli p to q” dla niespełnionego p (~p=1):
B2’’.
Jeśli zajdzie ~p to może ~~> zajść ~q
~p~~>~q = ~p*~q =1
Zdarzenia:
Możliwe jest (=1) jednoczesne zajście zdarzeń ~~> ~p i ~q
Zbiory:
Istnieje (=1) wspólny element ~~> zbiorów ~p i ~q

LUB

B2’.
Jeśli zajdzie ~p to może ~~> zajść q
~p~~>q = ~p*q =1
Zdarzenia:
Możliwe jest (=1) jednoczesne zajście zdarzeń ~~> ~p i q
Zbiory:
Istnieje (=1) wspólny element ~~> zbiorów ~p i q

Podsumowanie:
Doskonale widać, że zarówno po stronie p jak i po stronie ~p mamy tu najzwyklejsze „rzucanie monetą” w sensie „na dwoje babka wróżyła”.
Po stronie p mamy:
Jeśli zajdzie p to może ~~> zajść q (zdanie A1”) lub może ~~> zajść ~q (zdanie A1’)
Po stronie ~p mamy:
Jeśli zajdzie ~p to może ~~> zajść ~q (zdanie B2”) lub może ~~> zajść q (zdanie B2’)

Zauważmy, że kolejność wypowiadania zdań A1", A1', B2", B2' jest bez znaczenia, wszystkie muszą być prawdziwe.

Uwaga:
Przykład chaosu A|~~>S i operatora chaosu A||~~>S znajdziemy w punkcie 8.2 i 8.2.1

2.16 Sztandarowy przykład implikacji prostej P|=>CH

Kod:

T0
      A1B1:     A2B2:
A: 1: p=>q = 2:~p~>~q
      ##        ##
B: 1: p~>q = 2:~p=>~q
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia


Typowe zadanie w algebrze Kubusia brzmi:

Zadanie 1
Zbadaj w skład jakiego operatora implikacyjnego wchodzi zdanie wypowiedziane:
W.
Jeśli jutro będzie padało to będzie pochmurno

Rozwiązanie:
Na mocy prawa Kłapouchego wspólny dla wszystkich ludzi punkt odniesienia to:
p=P (pada)
q=CH (chmury)
Prawo Kłapouchego lokalizuje nas w kolumnie A1B1, gdzie mamy brak zaprzeczonego poprzednika p.

Badamy prawdziwość/fałszywość warunku wystarczającego => A1.
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
P=>CH =1
To samo w zapisie formalnym:
p=>q =1
Padanie (P) jest warunkiem wystarczającym => dla istnienia chmur (CH), bo zawsze gdy pada, są chmury
Innymi słowy:
Jeśli jutro będzie padało to mamy gwarancję matematyczną => istnienia chmur

Zachodzi tożsamość pojęć:
Na 100% => = warunek wystarczający => = gwarancja matematyczna => …
etc

Pozostało nam wybrać dowolne zdanie z linii Bx i udowodnić jego prawdziwość/fałszywość.
Wybieramy zdanie B1 kodowane warunkiem koniecznym ~>.

B1.
Jeśli jutro będzie padało (P) to na 100% ~> będzie pochmurno (CH)
P~>CH=0
To samo w zapisie formalnym:
p~>q =0
Dowód wprost:
Padanie nie jest (=0) warunkiem koniecznym ~> dla istnienia chmur, bo może nie padać, a chmury mogą istnieć.

2.16.1 Prawo Kameleona

Prawo Kameleona:
Dwa zdania brzmiące identycznie z dokładnością do każdej literki i każdego przecinka nie muszą być matematycznie tożsame.

Przykład to zdania A1 i B1 z poprzedniego punktu.
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
P=>CH =1
to samo w zapisie formalnym:
p=>q =1
Padanie jest (=1) warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury

##

B1.
Jeśli jutro będzie padało (P) to na 100% ~> będzie pochmurno (CH)
P~>CH =0
to samo w zapisie formalnym:
p~>q =0
Padanie nie jest (=0) warunkiem koniecznym ~> dla istnienia chmur, bo może nie padać, a chmury mogą istnieć.

Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>

Dowód iż to są zdania różne na mocy definicji:
A1: p=>q = ~p+q ## B1: p~>q =p+~q
Gdzie:
## - różne na mocy definicji

Różność matematyczną ## zdań A1 i B1 rozpoznajmy wyłącznie po znaczkach warunku wystarczającego => i koniecznego ~> wbudowanych w treść zdań.

2.16.2 Operator implikacji prostej P||=>CH

Zdania A1 i B1 są dowodem, iż mamy tu do czynienia z implikacją prostą A1B1: P|=>CH:

Definicja implikacji prostej P|=>CH
Implikacja prosta A1B1: P|=>CH to zachodzenie wyłącznie warunku wystarczającego => między tymi samymi punktami i w tym samym kierunku
A1: P=>CH =1 - padanie (P) jest (=1) wystarczające => dla istnienia chmur (CH)
B1: P~>CH =0 - padanie (P) nie jest (=0) konieczne ~> dla istnienia chmur (CH)
Stąd mamy:
A1B1: P|=>CH = (A1: P=>CH)*~(B1: P~>CH) = 1*~(0)=1*1=1

W tym momencie mamy kompletną tabelę implikacji prostej A1B1: P|=>CH.
Kod:

IP.
Implikacja prosta p|=>q w zapisie formalnym:
A1: p=>q =1 - p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) = 1*(0)=1*1=1
Nasz punkt odniesienia na mocy prawa Kłapouchego:
p=P (pada)
q=CH (chmury)
Implikacja prosta P|=>CH w zapisie aktualnym (nasz przykład):
A1: P=>CH=1 - padanie jest (=1) wystarczające => dla istnienia chmur
B1: P~>CH=0 - padanie nie jest (=0) konieczne ~> dla istnienia chmur
A1B1: P|=>CH = (A1: (P=>CH)*~(B1: P~>CH)=1*~(0)=1*1=1
Matematyczne związki warunku wystarczającego => i koniecznego ~>
w implikacji prostej p|=>q
       A1B1:         A2B2:       |     A3B3:        A4B4:
Zapis formalny:
A:  1: p=>q   =1  = 2:~p~>~q =1 [=] 3: q~>p   =1 =  4:~q=>~p =1
A': 1: p~~>~q =0                [=]                 4:~q~~>p =0
Zapis aktualny (nasz przykład)
p=P, q=CH
A:  1: P=>CH  =1  = 2:~P~>~CH=1 [=] 3: CH~>P  =1 =  4:~CH=>~P=1
A': 1: P~~>~CH=0                [=]                 4:~CH~~>P=0
       ##              ##               ##            ##
Zapis formalny:
B:  1: p~>q  =0   = 2:~p=>~q =0 [=] 3: q=>p   =0 =  4:~q~>~p =0
B':                 2:~p~~>q =1 [=] 3: q~~>~p =1
Zapis aktualny (nasz przykład)
p=P, q=CH
B:  1: P~>CH =0   = 2:~P=>~CH=0 [=] 3: CH=>P  =0 =  4:~CH~>~P=0
B':                 2:~P~~>CH=1 [=] 3: CH~~>~P=1
Gdzie:
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Prawo Sowy dla implikacji prostej p|=>q:
Prawdziwość dowolnego zdania serii Ax wymusza prawdziwość wszystkich zdań w linii A
Fałszywość dowolnego zdania serii Bx wymusza fałszywość wszystkich zdań w linii B

Innymi słowy:
Po udowodnieniu iż zdanie warunkowe „Jeśli p to q” jest częścią implikacji prostej A1B1: p|=>q w logice dodatniej (bo q) nic więcej nie musimy udowadniać, bowiem na mocy praw Sowy mamy zdeterminowaną prawdziwość/fałszywość wszelkich zdań warunkowych „Jeśli p to q” widniejących w tabeli IP

Definicja operatora implikacji prostej P||=>CH:
Operator implikacji prostej P||=>CH to układ równań A1B1 i A2B2 dający odpowiedź na pytanie o padanie (P) i nie padanie (~P)
Kolumna A1B1:
A1B1: P|=>CH = (A1: (P=>CH)*~(B1: P~>CH) - co może się wydarzyć jeśli jutro będzie padało (P)?
Kolumna A2B2
A2B2: ~P|~>~CH = (A2: ~P~>~CH)*~(B2: ~P=>~CH) - co może być jeśli jutro nie będzie padało (~P)?

A1B1:
Co może się wydarzyć jeśli jutro będzie padało (P)?

Odpowiedź mamy w kolumnie A1B1:
A1: P=>CH=1 - padanie (P) jest (=1) wystarczające > dla istnienia chmur (CH)
B1: P~>CH =0 - padanie (P) nie jest (=0) konieczne ~> dla istnienia chmur (CH)
A1B1: P|=>CH = (A1: P=>CH)*~(B1: P~>CH) = 1*~(0)=1*1=1
Prawą stronę czytamy:
Padanie jest (=1) warunkiem wystarczającym => dla istnienia chmur (A1: P=>CH=1) , ale nie jest (=0) warunkiem koniecznym ~> dla istnienia chmur (B1: P~>CH=0)

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A1B1:
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
P=>CH =1
To samo w zapisie formalnym:
p=>q =1
Padanie jest (=1) warunkiem wystarczającym => dla istnienia chmur, bo zawsze gdy pada, są chmury

Prawdziwy warunek wystarczający A1: P=>CH=1 wymusza fałszywy kontrprzykład A1' (i odwrotnie)
A1'
Jeśli jutro będzie padało (P) to może ~~> nie być pochmurno (~CH)
P~~>~CH = P*~CH =0
To samo w zapisie formalnym:
p~~>~q = p*~q =0
Dowód wprost:
Niemożliwe jest (=0) zdarzenie ~~>: pada (P) i nie jest pochmurno (~CH)
Dowód "nie wprost":
Na mocy definicji kontrprzykładu prawdziwy warunek wystarczający A1: P=>CH=1 wymusza fałszywość kontrprzykładu A1': P~~>~CH=0 ( i odwrotnie).

… a jeśli jutro nie będzie padało (~P)?
Prawo Kubusia:
A1: P=>CH = A2: ~P~>~CH
Idziemy do kolumny A2B2.

A2B2:
Co może się wydarzyć jeśli jutro nie będzie padało (~P)?

Odpowiedź na to pytanie mamy w kolumnie A2B2:
A2: ~P~>~CH =1 - brak opadów (~P) jest (=1) warunkiem koniecznym ~> dla braku chmur (~CH)
B2: ~P=>~CH =0 - brak opadów (~P) nie jest (=0) warunkiem wystarczającym => braku chmur (~CH)
A2B2: ~P|~>~CH = (A2:~P~>~CH)*~(B2: ~P=>~CH) = 1*~(0)=1*1=1
Prawą stronę czytamy:
Brak opadów jest (=1) warunkiem koniecznym ~> by nie było pochmurno (A1: ~P~>~CH=1), ale nie jest (=0) warunkiem wystarczającym => by nie było pochmurno (B2: ~P=>~CH)=0)

Odpowiedź w zdaniach warunkowych "Jeśli p to q" odczytujemy z kolumny A2B2:
A2
Jeśli jutro nie będzie padało (~P) to może ~> nie być pochmurno (~CH)
~P~>~CH =1
To samo w zapisie formalnym:
~p~>~q =1
Brak opadów jest warunkiem koniecznym ~> aby nie było pochmurno (~CH) bo jak pada (P) to na 100% => jest pochmurno (CH)
Prawo Kubusia samo nam tu wyskoczyło:
A2: ~P~>~CH = A1: P=>CH =1
To samo w zapisie formalnym:
A2: ~p~>~q = A1: p=>q

lub

B2'.
Jeśli jutro nie będzie padało to może ~~> być pochmurno
~P~~>CH =~P*CH=1
To samo w zapisie formalnym:
~p~~>q = ~p*q =1
Dowód wprost:
Możliwe jest (=1) zdarzenie ~~>: nie pada (~P) i jest pochmurno (CH)
Dowód "nie wprost":
Na mocy definicji kontrprzykładu fałszywość warunku wystarczającego B2: ~P=>~CH=0 wymusza prawdziwość kontrprzykładu B2': ~P~~>CH=1 (i odwrotnie)

Podsumowanie:
Jak widzimy, istotą operatora implikacji prostej P||=>CH jest gwarancja matematyczna => po stronie padania P (zdanie A1), oraz „rzucanie monetą” w sensie „na dwoje babka wróżyła” po stronie braku padania ~P (zdania A2 i B2’) .

2.16.3 Twarde i miękkie zera i jedynki

Definicja twardej jedynki:
Twarda jedynka w logice matematycznej to po prostu warunek wystarczający =>.

Nasz przykład:
A1.
Jeśli jutro będzie padało to na 100% => będzie pochmurno
P=>CH =1
Padanie jest warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury.

Na mocy definicji kontrprzykładu twarda jedynka w zdaniu A1 wymusza twarde zero w zdaniu A1' (i odwrotnie).
A1'
Jeśli jutro będzie padało (P) to może ~~> nie być pochmurno (~CH)
P~~>~CH = P*~CH =0
Dowód wprost:
Niemożliwe jest (=0) zdarzenie ~~>: pada (P) i nie jest pochmurno (~CH)

Definicja miękkiej jedynki:
Miękka jedynka to zdarzenie które może zajść, ale nie musi.

Nasz przykład:
Jeśli jutro nie będzie padało to może ~> nie być pochmurno (zdanie A2), lub może ~~> być pochmurno (zdanie B2'.
Miękka jedynka wymusza miękkie zero i odwrotnie w zależności od tego które zdarzenie zajdzie.

Przykładowo:
Jeśli jutro nie będzie padało to może być prawdziwe zdanie A2 (miękka jedynka) i fałszywe zdanie B2' (miękkie zero)
albo
Jeśli jutro nie będzie padało to może być prawdziwe zdanie B2' (miękka jedynka) i fałszywe zdanie A2 (miękkie zero)

2.17 Tabela prawdy operatora implikacji prostej p||=>q

Zapiszmy w tabeli prawdy powyższą analizę operatora implikacji prostej P||=>CH przechodząc na zapisy formalne (ogólne) poprzez podstawienie.
p=P (pada)
q=CH (chmury)
Tabela prawdy operatora implikacji prostej p||=>q.
Kod:

T1
Tabela prawdy operatora implikacji prostej p||=>q
A1:  p=> q =1 - zajście p jest wystarczające => dla zajścia q
                Twarda jedynka w A1 wymusza twarde zero w A1' (i odwrotnie)
A1': p~~>~q=0 - prawdziwość A1: p=>q wymusza fałszywość kontrprzykładu A1'
                Twarde zero w A1' wymusza twardą jedynkę w A1 (i odwrotnie)
A2: ~p~>~q =1 - bo prawo Kubusia: A1: p=>q = A2: ~p~>~q
                Miękka jedynka w A2 na mocy definicji p||=>q
LUB
B2':~p~~>q =1 - fałszywy B2:~p=>~q=0 wymusza prawdziwość kontrprzykładu B2'
                Miękka jedynka w B2' na mocy definicji p||=>q

Prawo Krokodyla (pkt. 21.2):
W obsłudze zdań warunkowych "Jeśli p to q" przez wszystkie możliwe przeczenia p i q logika matematyczna musi widzieć tą samą ilość twardych zer i twardych jedynek, inaczej jest wewnętrzne sprzeczna.

Jak widzimy, w operatorze implikacji prostej p||=>q mamy jedną twardą jedynkę (A1), jedno twarde zero (A1') oraz dwie miękkie jedynki (A2 i B2') wymuszone definicją tego operatora, co oznacza spełnienie prawa Krokodyla i brak wewnętrznej sprzeczności algebry Kubusia.

2.17.1 Zero-jedynkowa definicja warunku wystarczającego p=>q

Zapiszmy tabelę prawdy operatora implikacji prostej p||=>q w wersji skróconej:
Kod:

T2
Definicja     |Co w logice
symboliczna   |jedynek oznacza
p||=>q        |
A1:  p=> q =1 |( p=1)=> ( q=1)=1
A1': p~~>~q=0 |( p=1)~~>(~q=1)=0
A2: ~p~>~q =1 |(~p=1)~> (~q=1)=1
B2':~p~~>q =1 |(~p=1)~~>( q=1)=1
     a   b  c    1        2    3

Zero-jedynkową definicję warunku wystarczającego p=>q w logice dodatniej (bo q) otrzymamy kodując tabelę T2 z punktem odniesienia ustawionym na warunku wystarczającym =>:
A1: p=>q
W warunku wystarczającym A1: p=>q zmienne p i q są w postaci niezanegowanej.

Tabelę zero-jedynkową warunku wystarczającego A1: p=>q w logice dodatniej (bo q) otrzymamy wtedy i tylko wtedy gdy wszystkie zmienne w tabeli T2_12 sprowadzimy do postaci niezanegowanej.
Umożliwia to II prawo Prosiaczka (pkt. 1.4):
(~p=1)=(p=0)
które możemy stosować wybiórczo w stosunku do dowolnej zmiennej binarnej.
Zróbmy to:
Kod:

T3
Definicja     |Co w logice       |Na mocy II        |Zapis tożsamy
symboliczna   |jedynek oznacza   |prawa Prosiaczka  |tabeli 456
p||=>q        |                  |                  |  p  q  p=> q
A1:  p=> q =1 |( p=1)=> ( q=1)=1 |( p=1)=> ( q=1)=1 |  1=>1   =1
A1': p~~>~q=0 |( p=1)~~>(~q=1)=0 |( p=1)~~>( q=0)=0 |  1=>0   =0
A2: ~p~>~q =1 |(~p=1)~> (~q=1)=1 |( p=0)~> ( q=0)=1 |  0=>0   =1
B2':~p~~>q =1 |(~p=1)~~>( q=1)=1 |( p=0)~~>( q=1)=1 |  0=>1   =1
     a   b  c    1        2    3    4        5    6    7  8    9

Definicja:
Tabelę T3_789 nazywamy definicją warunku wystarczającego => w logice dodatniej (bo q) dla potrzeb rachunku zerojedynkowego.

Interpretacja warunku wystarczającego =>:
T3_789: p=>q - zajście p jest wystarczające => dla zajścia q

Do zapamiętania:
Kod:

Zero-jedynkowa definicja warunku wystarczającego =>
dla potrzeb rachunku zero-jedynkowego
   p  q  Y=(p=>q)=~p+q
A: 1=>1  1
B: 1=>0  0
C: 0=>0  1
D: 0=>1  1
   1  2  3
Do łatwego zapamiętania:
p=>q=0 <=> p=1 i q=0
Inaczej:
p=>q=1
Definicja warunku wystarczającego => w spójniku „lub”(+):
p=>q =~p+q


Ostatnio zmieniony przez rafal3006 dnia Pon 13:24, 14 Paź 2024, w całości zmieniany 8 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 35257
Przeczytał: 24 tematy

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Pon 7:38, 16 Wrz 2024    Temat postu:

Kompendium algebry Kubusia
Część IV Algebra Kubusia w bramkach logicznych

Spis treści
11.0 Algebra Kubusia w bramkach logicznych 1
11.1 Definicja negacji 2
11.1.1 Negator dwukierunkowy w bramkach logicznych 2
11.2 Operatory logiczne jednoargumentowe w bramkach logicznych 4
11.2.1 Realizacja zdania zawsze prawdziwego ZP w bramkach logicznych 5
11.2.2 Realizacja zdania zawsze fałszywego ZF w bramkach logicznych 5
11.3 Definicja funkcji transmisji Y=p i operatora transmisji Y|=p 5
11.3.1 Realizacja operatora transmisji Y|=p w bramkach logicznych 6
11.4 Definicja funkcji negacji Y=~p i operatora negacji Y|=~p 7
11.4.1 Realizacja operatora negacji Y|=~p w bramkach logicznych 8
11.5 Fizyczne realizacje spójników „i”(*) i „lub”(+) 9
11.5.1 Definicja operatora „i”(|*) w bramkach logicznych 10
11.5.2 Definicja operatora „lub”(|+) w bramkach logicznych 11
11.6 Spójniki związane z obsługą zdań warunkowych „Jeśli p to q” 13
11.6.1 Definicja warunku wystarczającego => w bramkach logicznych 13
11.6.2 Definicja warunku koniecznego ~> w bramkach logicznych 14
11.7 Definicje spójników implikacyjnych p|?q w logice dodatniej (bo q) 14
11.7.1 Implikacja prosta p|=>q w bramkach logicznych 17
11.7.2 Implikacja odwrotna p|~>q w bramkach logicznych 18
11.7.3 Równoważność p<=>q w bramkach logicznych 19
11.7.4 Spójnik „albo”($) w bramkach logicznych 20
11.7.5 Definicja „chaosu” (|~~>) w bramkach logicznych 23
11.7.6 Zero-jedynkowa interpretacja znaczka różne na mocy definicji ## 25
11.8 Dowód poprawności algebry Kubusia w funkcjach logicznych 25
11.8.1 Prawo Grzechotnika - Armagedon ziemskiego rachunku zero-jedynkowego 27


11.0 Algebra Kubusia w bramkach logicznych

W niniejszym rozdziale udowodnimy że 100% algebry Kubusia ma przełożenie na teorię bramek logicznych w przełożeniu 1:1 co oznacza, że algebra Kubusia jest weryfikowalna w laboratorium bramek logicznych.
Potrzebne w laboratorium układy scalone TTL to:
SN7406, SN74LS04, SN74LS08, SN74LS32

11.1 Definicja negacji

Zero-jedynkowa tabela prawdy:
Zero-jedynkowa tabela prawdy to zapis wszystkich możliwych wartościowań zmiennych binarnych w postaci tabeli zero-jedynkowej.

W szczególnym przypadku symbol w nagłówku kolumny może być stałą binarną gdy w kolumnie są same jedynki albo same zera.
Kod:

DN
Definicja negacji:
   p # ~p
A: 1 #  0
B: 0 #  1
   1    2
Gdzie:
# - różne w znaczeniu iż dowolna strona # jest negacją drugiej strony

Definicja znaczka w logice matematycznej:
Znaczek w logice matematycznej to symbol zdefiniowany odpowiednią tabelą zero-jedynkową

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony
p#~p
Dowodem jest tu definicja negacji DN.

Definicja zmiennej binarnej w logice dodatniej (bo p):
Zmienna binarna p wyrażona jest w logice dodatniej (bo p) wtedy i tylko wtedy gdy nie jest zanegowana.
Inaczej mamy do czynienia ze zmienną binarną w logice ujemnej (bo ~p)

Zauważmy, że w definicji negacji DN symbole p i ~p są zmiennymi binarnymi.
Dowód:
W osi czasu (kolumna A1B1) może zajść przypadek, że zmienna binarna p przyjmie wartość logiczną 1 (A1) albo wartość logiczną 0 (B1).
W osi czasu (kolumna B2A2) może zajść przypadek, że zmienna binarna ~p przyjmie wartość logiczną 1 (B2) albo wartość logiczną 0 (A2)

Stąd mamy:
Definicja osi czasu w logice matematycznej
W dowolnej tabeli zero-jedynkowej oś czasu to zero-jedynkowa zawartość kolumny opisanej symbolem nad tą kolumną.

W logice matematycznej odpowiednikiem układu Kartezjańskiego są wykresy czasowe.
Dowód na przykładzie (strona 5):
Kod:
https://www.ti.com/lit/ds/symlink/sn54ls193-sp.pdf


11.1.1 Negator dwukierunkowy w bramkach logicznych

Kopia rozdziału 1.1.2
Kod:

DN
Definicja negacji:
   p # ~p
A: 1 #  0
B: 0 #  1
   1    2
Gdzie:
# - różne w znaczeniu iż dowolna strona # jest negacją drugiej strony

W technice cyfrowej znaczek różne # o definicji jak wyżej jest odpowiednikiem dwukierunkowego negatora „O”.
Zachodzi tożsamość znaczków: # = O
Kod:

Realizacja dwukierunkowego negatora „O” w bramkach logicznych
              -----
p --x-------->| ~ |o-x--> ~p
    |         -----  |
    |                |
    | p=~(~p) -----  |
    -<-------o| ~ |<-x--- ~p
              -----
Gdzie:
„O” - symbol dwukierunkowego negatora o budowie jak wyżej
„o"(~) - symbole negacji w technice „o” i języku potocznym „~”
--->| - wejście bramki logicznej negatora (~)
|o--> - wyjście bramki logicznej negatora (~)
W świecie rzeczywistym musi tu być negator z otwartym kolektorem (OC)
na przykład typu SN7406. Wyjście OC musi być podparte rezystorem do Vcc.

W świecie rzeczywistym podajemy sygnały cyfrowe {0,1} na wejściu negatora p albo ~p obserwując co jest na jego wyjściu. Wszystko musi być zgodne z definicją DN.

Matematyczne związki między p i ~p:
a)
Dowolna strona znaczka # jest negacją drugiej strony
p#~p
b)
Prawo podwójnego przeczenia:
p=~(~p) - logika dodatnia (bo p) to zanegowana logika ujemna (bo ~p)
c)
Prawo zaprzeczenia logiki dodatniej (bo p):
~p=~(p) - logika ujemna (bo ~p) to zanegowana logika dodatnia (bo p)

Dowód w rachunku zero-jedynkowym:
Kod:

Matematyczne związki w definicji negacji:
   p ~p ~(~p) ~(p)
A: 1  0    1    0
B: 0  1    0    1
   1  2    3    4

Tożsamość kolumn 1=3 jest dowodem formalnym prawa podwójnego przeczenia:
p=~(~p)
Tożsamość kolumn 2=4 jest dowodem formalnym prawa negacji logiki dodatniej (bo p):
~p=~(p)

Uwaga:
Budowa dwukierunkowego transmitera w bramkach logicznych będzie identyczna jak wyżej lecz z układem SN7407 w miejsce układu SN7406.

Ćwiczenie w laboratorium:
1.
Na wejściu p wymuszamy sygnały z kolumny AB1 sprawdzając czy na wyjściu ~p mamy odpowiednie sygnały z kolumny AB2
2.
Na wejściu ~p wymuszamy sygnały z kolumny AB2 sprawdzając czy na wyjściu p mamy odpowiednie sygnały z kolumny AB1

11.2 Operatory logiczne jednoargumentowe w bramkach logicznych

Wyprowadzenie i tabelę wszystkich możliwych operatorów jednoargumentowych znajdziemy w punkcie 1.3

Tabela wszystkich możliwych operatorów jednoargumentowych (1.3.2)
Kod:

TJ
Tabela wszystkich możliwych operatorów jednoargumentowych
Operator transmisji Y|=p
A1:  Y= p         #  B1: ~Y=~p
    ##                   ##
Operator negacji Y=|~p
A2:  Y=~p         #  B2: ~Y= p
    ##                   ##
Zdanie zawsze prawdziwe Y|=1 (stała binarna)
A3:  Y=1          #  B3: ~Y=0
    ##                   ##
Zdanie zawsze fałszywe Y|=0 (stała binarna)
A4:  Y=0          #  B4: ~Y=1
Matematycznie zachodzi tożsamość:
~Y=~(Y)
~p=~(p)
Stąd mamy:
p, Y muszą być wszędzie tymi samymi p, Y inaczej błąd podstawienia
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
## - różne na mocy definicji

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

Doskonale widać, że w tabeli TJ definicje obu znaczków # i ## są perfekcyjnie spełnione.

Linie A3B3 i A4B4 to bezcenne zero-jedynkowe definicje prawa Prosiaczka, czego dowód znajdziemy w punkcie 1.4.
Znaczenie alternatywne:
Linie A3B3 i A4B4 to stałe binarne, wykorzystywane w definiowaniu nowych pojęć (pkt. 1.5)

11.2.1 Realizacja zdania zawsze prawdziwego ZP w bramkach logicznych
Kod:

Linia A3B3:
Realizacja zdania zawsze prawdziwego ZP w bramkach logicznych
            ZP
        ----------
f(x) -->|    1-->|-------> A3: Y=1
        ----------

Zdanie na wejściu f(x) musi być twardą jedynką Y=1 tzn. bez możliwości ustawienia Y=0.
Przykład:
f(x)=p+~p=1
Pani w przedszkolu:
A3.
Jutro pójdziemy do kina lub nie pójdziemy do kina
Y=K+~K =1
Cokolwiek pani jutro nie zrobi to dotrzyma słowa (Y=1), nie ma tu możliwości ustawienia (Y=0)

Wniosek:
Linia A3B3 jest w praktyce komunikacyjnej człowieka z człowiekiem bezwartościowa.

11.2.2 Realizacja zdania zawsze fałszywego ZF w bramkach logicznych
Kod:

Linia A4B4:
Realizacja zdania zawsze fałszywego ZF w bramkach logicznych
            ZF
        ----------
f(x) -->|    0-->|-------> A4: Y=0
        ----------

Zdanie na wejściu f(x) musi być twardym zerem Y=0 tzn. bez możliwości ustawienia Y=1.
Przykład:
f(x)=p*~p=0
Pani w przedszkolu:
A4.
Jutro pójdziemy do kina i nie pójdziemy do kina
Y=K*~K =0
W tym przypadku pani zostaje kłamcą (Y=0) z chwilą wypowiedzenia zdania A4
Cokolwiek pani jutro nie zrobi to nie ma szans na dotrzymanie słowa (Y=1).

Wniosek:
Linia A4B4 jest w praktyce komunikacyjnej człowieka z człowiekiem bezwartościowa.

11.3 Definicja funkcji transmisji Y=p i operatora transmisji Y|=p

Definicja transmitera:
Transmiter to bramka logiczna jednowejściowa gdzie na wyjście Y transmitowany jest zawsze niezanegowany sygnał wejściowy p (Y=p)

Realizacja rzeczywista:
SN7407 (Strona 1: Y=p)
Kod:
https://www.ti.com/lit/ds/symlink/sn7407.pdf


Definicja matematyczna:
Funkcja logiczna transmitera Y=p w logice dodatniej (bo Y) to funkcja definiowana tabelą prawdy:
Kod:

FT
Funkcja transmisji Y=p
Wejście |Wyjście
        | A1:
p # ~p  | Y=p
1 #  0  | 1
0 #  1  | 0
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Na wyjściu Y mamy tu zawsze niezanegowany sygnał p (Y=p)

Definicja operatora transmisji Y|=p:
Operator transmisji Y|=p to układ równań logicznych Y=p i ~Y=~p dający odpowiedź na pytanie o Y i ~Y

Zobaczmy to w tabeli zero-jedynkowej:
Kod:

OT
Definicja operatora transmisji: Y|=p
Wejście    |Wyjście
           | A1:   B1:
   p # ~p  | Y=p # ~Y=~p
A: 1 #  0  | 1   #  0
B: 0 #  1  | 0   #  1
   1    2    3      4
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale tu widać że:
A1:
Y=p
co w logice jedynek oznacza:
Y=1 <=> p=1 (patrz tabela OT)
#
… kiedy zajdzie ~Y?
Negujemy dwustronnie równanie A1.
B1:
~Y=~p
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 (patrz tabela OT)

11.3.1 Realizacja operatora transmisji Y|=p w bramkach logicznych
Kod:

OT
Definicja operatora transmisji: Y|=p
Wejście    |Wyjście
           | A1:   B1:
   p # ~p  | Y=p # ~Y=~p
A: 1 #  0  | 1   #  0
B: 0 #  1  | 0   #  1
   1    2    3      4
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

W technice cyfrowej produkowane są wyłącznie bramki logiczne z wejściem w logice dodatniej (bo p) oraz wyjściem w logice dodatniej (bo Y).
Kluczowa jest tu dostępna dowolna ilość negatorów dwukierunkowych „O” o fizycznej realizacji opisanej w punkcie 11.1
Kod:

OT
Operator transmisji Y|=p w bramkach logicznych
      Wejście    |      Wyjście
              -------
 p ---x------>|  T  |---x---> A1: Y=p
      |       -------   |
      |                 O = # (negator dwukierunkowy)
      |    ~p -------   |
      x--O--->|  T  |---x---> B1: ~Y=~p
              -------
Gdzie:
T - bramka transmisji, sygnał z wejścia transmitowany jest na wyjście
# - dowolna strona znaczka # jest negacją drugiej strony
„O” - negator dwukierunkowy (pkt. 11.1.1)

Jak to działa?
1.
Funkcja transmisji A1: Y=p w logice dodatniej (bo Y) realizowana jest tabelą zero-jedynkową AB13.
Na wejściu p podajemy 1 sprawdzając czy na wyjściu A1: Y=p również mamy 1
Na wejściu p podajemy 0 sprawdzając czy na wyjściu A1: Y=p również mamy 0
2.
Funkcja transmisji B1: ~Y=~p w logice ujemnej (bo ~Y) realizowana jest tabelą zero-jedynkową AB24.
Na wejściu ~p podajemy 0 sprawdzając czy na wyjściu B1: ~Y=~p również mamy 0
Na wejściu ~p podajemy 1 sprawdzając czy na wyjściu B1: ~Y=~p również mamy 1

11.4 Definicja funkcji negacji Y=~p i operatora negacji Y|=~p

Definicja negatora:
Negator to bramka logiczna jednowejściowa gdzie na wyjście Y transmitowany jest zawsze zanegowany sygnał wejściowy p (Y=~p)

Realizacja rzeczywista:
SN7406 (strona 2: Y=~p)
Kod:
https://www.ti.com/lit/ds/symlink/sn7406.pdf


Definicja matematyczna:
Funkcja logiczna negatora Y=~p to funkcja definiowana tabelą prawdy:
Kod:

FN
Funkcja negatora Y=~p
Wejście |Wyjście
        | A2:
p # ~p  | Y=~p
1 #  0  | 0
0 #  1  | 1
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Na wyjściu Y mamy tu zawsze zanegowany sygnał p (Y=~p)

Definicja operatora negacji Y|=~p:
Operator negacji Y|=~p to układ równań logicznych Y=~p i ~Y=p dający odpowiedź na pytanie o Y i ~Y

Zobaczmy to w tabeli zero-jedynkowej:
Kod:

ON
Definicja operatora negacji: Y|=~p
Wejście    |Wyjście
           | A2:    B2:
   p # ~p  | Y=~p # ~Y=p
A: 1 #  0  | 0    #  1
B: 0 #  1  | 1    #  0
   1    2    3       4
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

Doskonale tu widać że:
A2:
Y=~p
co w logice jedynek oznacza:
Y=1 <=> ~p=1 (patrz tabela ON)
#
… kiedy zajdzie ~Y?
Negujemy dwustronnie równanie A2.
B2:
~Y=p
co w logice jedynek oznacza:
~Y=1 <=> p=1 (patrz tabela ON)

11.4.1 Realizacja operatora negacji Y|=~p w bramkach logicznych
Kod:

ON
Definicja operatora negacji: Y|=~p
Wejście    |Wyjście
           | A2:    B2:
   p # ~p  | Y=~p # ~Y=p
A: 1 #  0  | 0    #  1
B: 0 #  1  | 1    #  0
   1    2    3       4
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony

W technice cyfrowej produkowane są wyłącznie bramki logiczne z wejściem w logice dodatniej (bo p) oraz wyjściem w logice dodatniej (bo Y).
Kluczowa jest tu dostępna dowolna ilość negatorów dwukierunkowych „O” o fizycznej realizacji opisanej w punkcie 11.1.1
Kod:

ON
Operator negacji Y|=~p w bramkach logicznych
      Wejście    |      Wyjście
           ~p -------
 p ---x--O--->|  T  |---x---> A2: Y=~p
      |       -------   |
      |                 O = # (negator dwukierunkowy)
      |       -------   |
      x------>|  T  |---x---> B2: ~Y=p
              -------
Gdzie:
T - bramka transmisji, sygnał z wejścia transmitowany jest na wyjście
# - dowolna strona znaczka # jest negacją drugiej strony
O - negator dwukierunkowy (pkt. 11.1.1)

Jak to działa?
1.
Funkcja negacji A2: Y=~p w logice dodatniej (bo Y) realizowana jest tabelą zero-jedynkową AB13.
Na wejściu p podajemy 1 sprawdzając czy na wyjściu A2: Y=~p mamy 0
Na wejściu p podajemy 0 sprawdzając czy na wyjściu A2: Y=~p mamy 1
2.
Funkcja negacji B2: ~Y=p w logice ujemnej (bo ~Y) realizowana jest tabelą zero-jedynkową AB24.
Na wejściu ~p podajemy 0 sprawdzając czy na wyjściu B2: ~Y=p mamy 1
Na wejściu ~p podajemy 1 sprawdzając czy na wyjściu B2: ~Y=p mamy 0

11.5 Fizyczne realizacje spójników „i”(*) i „lub”(+)

Fizyczna realizacja spójnika (bramki) „i”(*):
Realizacja fizyczna (SN7408):
[link widoczny dla zalogowanych]
Matematycznie zachodzi tożsamość:
Bramka AND (technika) = bramka „i”(*) = spójnik „i”(*) z języka potocznego
Kod:

Fizyczna realizacja:
        ------------
p ------| “i”(*)   |
        |          |----------> Y=p*q
q ------| SN7408   |
        ------------
Definicja bramki “i”(*):
Y=p*q
To samo w tabeli zero-jedynkowej:
   p  q  Y=p*q
A: 1  1  =1
B: 1  0  =0
C: 0  1  =0
D: 0  0  =0
Y=1<=>p=1 i q=1
inaczej:
Y=0


Fizyczna realizacja spójnika (bramki) „lub”(+):
Realizacja fizyczna (SN7432):
[link widoczny dla zalogowanych]
Matematycznie zachodzi tożsamość:
Bramka OR (technika) = bramka „lub”(*) = spójnik „lub”(+) z języka potocznego
Kod:

Fizyczna realizacja:
        ------------
p ------| “lub”(+) |
        |          |----------> Y=p+q
q ------| SN7432   |
        ------------
Definicja bramki “lub”(+):
Y=p+q
To samo w tabeli zero-jedynkowej:
   p  q  Y=p+q
A: 1  1   1
B: 1  0   1
C: 0  1   1
D: 0  0   0
Y=1<=>p=1 lub q=1
inaczej:
Y=0


11.5.1 Definicja operatora „i”(|*) w bramkach logicznych

Definicję operatora „i”(|*) wraz z fizyczną realizacją tego operatora znają w praktyce wszystkie 5-cio latki, czego dowód znajdziemy w punkcie:
1.11 Sterowanie windą autorstwa 5-cio latków
Niżej mamy zero-jedynkową definicję operatora „i”(|*) oraz kopię schematu sterowania windą (pkt. 1.11) w zapisach formalnych (ogólnych)

Definicja operatora „i”(|*):
Operator „i”(|*) to odpowiedź na pytanie o Y i ~Y:
1: Y=p*q
Kiedy zajdzie ~Y?
Negujemy dwustronnie:
2: ~Y=~p+~q
Albo odwrotnie, czyli znając ~Y łatwo wyznaczymy Y
Kod:

T1
Zero-jedynkowa definicja operatora „i”(|*)
   p  q  A1: Y=p*q ~Y=~(p*q) ~p ~q  B1:~Y=~p+~q
A: 1  1       1      0        0  0       0
B: 1  0       0      1        0  1       1
C: 0  1       0      1        1  0       1
D: 0  0       0      1        1  1       1
   1  2       3      4        5  6       7
Operator „i”(|*) to układ równań logicznych
dający odpowiedź na pytanie o Y i ~Y:
A1.
Kiedy zajdzie Y:
Y=p*q
co w logice jedynek oznacza:
Y=1 <=> p=1 i q=1 (patrz: ABCD123)
#
B1.
Kiedy zajdzie ~Y:
~Y=~p+~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 lub ~q=1 (patrz: ABCD567)
Gdzie:
# - dowolna strona znaczka różne # jest negacją drugiej strony

Realizacja fizyczna operatora „i”(|*) jest następująca:
Kod:

T1
Definicja operatora „i”(|*) w bramkach logicznych „i”(*) i „lub”(+)
                  -------------
 p------x-------->|           |
        |         |  „i”(*)   |---x--->  A1: Y=p*q
 q--x------------>|           |   |
    |   |         -------------   |
    |   |                         O = # (negator dwukierunkowy)
    |   |    ~p   -------------   |
    |   |--O----->|           |   |
    |        ~q   | „lub”(+)  |---x--->  B1: ~Y=~p+~q
    |------O----->|           |
                  -------------
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
O - negator dwukierunkowy (pkt. 11.1.1)
Zachodzi tożsamość znaczków:
# = O

Ćwiczenie w laboratorium:
1.
Na wejściach p i q wymuszamy zero-jedynkową matrycę ABCD12 dla której sprawdzamy odpowiedzi na wyjściu A1: Y=p*q które muszą być zgodne z kolumną 3.
2.
Na wejściach ~p i ~q wymuszamy zero-jedynkową matrycę ABCD56 dla której sprawdzamy odpowiedzi na wyjściu B1: ~Y=~p+~q które muszą być zgodne z kolumną 7.
Koniec ćwiczenia.

11.5.2 Definicja operatora „lub”(|+) w bramkach logicznych

Definicja operatora “lub”(|+):
Operator “lub”(|+) to odpowiedź na pytanie o Y i ~Y:
1: Y=p+q
Kiedy zajdzie ~Y?
Negujemy dwustronnie:
2: ~Y=~p*~q
Albo odwrotnie, czyli znając ~Y łatwo wyznaczymy Y
To samo w tabeli zero-jedynkowej:
Kod:

T2
Zero-jedynkowa definicja operatora „lub”(|+)
   p  q  A2: Y=p+q ~Y=~(p+q) ~p ~q  B2:~Y=~p*~q
A: 1  1       1      0        0  0       0
B: 1  0       1      0        0  1       0
C: 0  1       1      0        1  0       0
D: 0  0       0      1        1  1       1
   1  2       3      4        5  6       7
Operator „lub”(|+) to układ równań logicznych
dający odpowiedź na pytanie o Y i ~Y:
A2.
Kiedy zajdzie Y:
Y=p+q
co w logice jedynek oznacza:
Y=1 <=> p=1 lub q=1 (patrz: ABCD123)
#
B2.
Kiedy zajdzie ~Y:
~Y=~p*~q
co w logice jedynek oznacza:
~Y=1 <=> ~p=1 i ~q=1 (patrz: ABCD567)
Gdzie:
# - dowolna strona znaczka różne # jest negacją drugiej strony

Realizacja fizyczna operatora „lub”(|+) jest następująca:
Kod:

T2
Definicja operatora „lub”(|+) w bramkach logicznych „lub”(+) i „i”(*)
                  -------------
 p------x-------->|           |
        |         |  „lub”(+) |---x--->  A2: Y=p+q
 q--x------------>|           |   |
    |   |         -------------   |
    |   |                         O = # (negator dwukierunkowy)
    |   |    ~p   -------------   |
    |   |--O----->|           |   |
    |        ~q   | „i”(*)    |---x--->  B2: ~Y=~p*~q
    |------O----->|           |
                  -------------
Gdzie:
# - dowolna strona znaczka # jest negacją drugiej strony
O - negator dwukierunkowy (pkt. 11.1.1)
Zachodzi tożsamość znaczków:
# = O

Ćwiczenie w laboratorium:
1.
Na wejściach p i q wymuszamy zero-jedynkową matrycę ABCD12 dla której sprawdzamy odpowiedzi na wyjściu A2: Y=p+q które muszą być zgodne z kolumną 3.
2.
Na wejściach ~p i ~q wymuszamy zero-jedynkową matrycę ABCD56 dla której sprawdzamy odpowiedzi na wyjściu B2: ~Y=~p*~q które muszą być zgodne z kolumną 7.

11.6 Spójniki związane z obsługą zdań warunkowych „Jeśli p to q”

Algebra Boole’a rozpoznaje wyłącznie spójniki „i”(*) i „lub”(+), tak więc z definicji nie zajmuje się obsługą zdań warunkowych „Jeśli p to q” definiowanych warunkami wystarczającymi => i koniecznymi ~>.
Nie oznacza to jednak, że przy pomocy bramek „i”(*) i „lub”(+) nie da się zbudować definicji zarówno warunku wystarczającego =>, jak i warunku koniecznego ~> co w tym rozdziale udowodnimy.

11.6.1 Definicja warunku wystarczającego => w bramkach logicznych

Definicja warunku wystarczającego => w bramkach logicznych:
Bramka warunku wystarczającego => nie jest produkowana bo to jest banalna bramka „lub”(+) z zanegowanym wejściem p:
p=>q = ~p+q
Realizacja fizyczna:
Kod:

Definicja warunku wystarczającego =>:
p=>q=~p+q
To samo w tabeli zero-jedynkowej:
   p  q  p=>q=~p+q
A: 1  1   1
B: 1  0   0
C: 0  1   1
D: 0  0   1
p=>q=0 <=> p=1 i q=0
inaczej:
p=>q=1

Fizyczna realizacja:
        ------------
p ------|o   =>    |
        | „lub”(+) |----------> Y=(p=>q)=~p+q
q ------|          |
        ------------
Gdzie:
o - symbol negatora (~)
Symbol negatora wstawiony jest do środka bramki „lub”(+)
gdyż jest integralną częścią definicji warunku wystarczającego =>.
W rzeczywistości bramka warunku wystarczającego => nie jest produkowana
i musimy użyć zewnętrznego negatora w linii p przyjmując, że jest w środku

Fizyczna realizacja warunku wystarczającego =>
przy pomocy bramki „lub”(+) oraz negatora (~):
Definicja =>  | Fizyczna realizacja w bramkach logicznych
   p  q  p=>q | ~p  p=>q=~p+q
A: 1  1   1   |  0   1
B: 1  0   0   |  0   0
C: 0  1   1   |  1   1
D: 0  0   1   |  1   1
   1  2   3      4   5


11.6.2 Definicja warunku koniecznego ~> w bramkach logicznych

Definicja warunku koniecznego ~> w bramkach logicznych:
Bramka warunku koniecznego ~> nie jest produkowana bo to jest banalna bramka „lub”(+) z zanegowanym wejściem q:
p~>q = p+~q
Kod:

Definicja warunku koniecznego ~>:
   p  q  p~>q=p+~q
A: 1  1   1
B: 1  0   1
C: 0  1   0
D: 0  0   1
p~>q=0 <=> p=0 i q=1
inaczej:
p~>q=1
 
Fizyczna realizacja:
        ------------
p ------|   ~>     |
        | „lub”(+) |----------> Y=(p~>q)=p+~q
q ------|o         |
        ------------
Gdzie:
o - symbol negatora (~)
Symbol negatora wstawiony jest do środka bramki „lub”(+)
gdyż jest integralną częścią definicji warunku koniecznego ~>.
W rzeczywistości bramka warunku koniecznego ~> nie jest produkowana
i musimy użyć zewnętrznego negatora w linii q przyjmując, że jest w środku

Fizyczna realizacja warunku koniecznego ~>
zrealizowana przy pomocy bramki „lub”(+) oraz negatora (~):
Definicja ~>  |Fizyczna realizacja w bramkach logicznych
   p  q  p~>q | ~q   p~>q=p+~q
A: 1  1   1   |  0    1
B: 1  0   1   |  1    1
C: 0  1   0   |  0    0
D: 0  0   1   |  1    1
   1  2   3      4    5


11.7 Definicje spójników implikacyjnych p|?q w logice dodatniej (bo q)

Przypomnijmy sobie definicje elementarne algebry Kubusia dotyczące zdań warunkowych „Jeśli p to q”

1.
Warunek wystarczający =>:

„Jeśli p to q”
p=>q =1 - wtedy i tylko wtedy gdy zajście p jest (=1) wystarczające => dla zajścia q
inaczej:
p=>q =0

2.
Warunek konieczny ~>:

„Jeśli p to q”
p~>q =1 - wtedy i tylko wtedy gdy zajście p jest (=1) konieczne ~> dla zajścia q
inaczej:
p~>q =0

3.
Zdarzenie możliwe ~~> w zdarzeniach lub element wspólny zbiorów ~~> w zbiorach:

Zdarzenia:
„Jeśli p to q”
p~~>q = p*q =1 - wtedy i tylko wtedy gdy możliwe jest jednoczesne zajście zdarzeń p i q
inaczej:
p~~>q = p*q =0

Zbiory:
„Jeśli p to q”
p~~>q = p*q =1 - wtedy i tylko wtedy gdy istnieje element wspólny zbiorów p i q
inaczej:
p~~>q = p*q =0

Koniec!
Te trzy definicje to matematyczny fundament obsługi wszelkich zdań warunkowych „Jeśli p to q” w algebrze Kubusia. Spójniki „i”(*) i „lub”(+) pełnią w algebrze Kubusia wyłącznie funkcje pomocnicze (przygotowawcze) dla zdań warunkowych „Jeśli p to q” gdzie podejmuje się decyzję o wszelkich rozgałęzieniach logiki (= programu komputerowego).

Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego => w „i”(*) i „lub”(+)
p~>q = p+~q - definicja warunku koniecznego ~> w „i”(*) i „lub”(+)
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Definicja dowodu „nie wprost” w algebrze Kubusia:
Dowód „nie wprost” w algebrze Kubusia to dowód warunku koniecznego ~> lub wystarczającego => (twierdzenie matematyczne „Jeśli p to q”) z wykorzystaniem praw logiki matematycznej (prawa Kubusia, prawa Tygryska, prawa kontrapozycji dla warunku wystarczającego =>, prawa kontrapozycji dla warunku koniecznego) plus definicja kontrprzykładu.

Definicja spójnika implikacyjnego p|?q w logice dodatniej (bo q):
Spójnik implikacyjny p|?q w logice dodatniej (bo q) to kolumna A1B1 w tabeli matematycznych związków warunku wystarczającego => i koniecznego ~> dająca odpowiedź na pytanie o p

W logice matematycznej rozróżniamy pięć podstawowych spójników implikacyjnych dających odpowiedź na pytanie o p.
1.
Implikacja prosta p|=>q:

A1: p=>q =1 zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) = 1*~(0) =1*1 =1
A1B1: Y=p|=>q=~p*q
##
2.
Implikacja odwrotna p|~>q:

A1: p=>q =0 zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) = ~(0)*1 =1*1 =1
A1B1: Y=p|~>q=p*~q
##
3.
Równoważność p<=>q:

A1: p=>q =1 zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1 =1
A1B1: Y=p<=>q=p*q+~p*~q
##
4.
Spójnik „albo”($) p$q:

A1: p=>~q =1 zajście p jest (=1) wystarczające => dla zajścia ~q
B1: p~>~q =1 - zajście p jest (=1) konieczne ~> dla zajścia ~q
A1B1: p$q = (A1: p=>~q)*(B1: p~>~q) = p<=>~q
A1B1: Y=p$q=p*~q+~p*q
##
5.
Chaos p|~~>q:

A1: p=>q =0 zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
A1B1: p|~~>q = ~(A1: p=>q)*~(B1: p~>q) = ~(0)*~(0) =1*1 =1
A1B1: Y=1

Gdzie:
## - bramki logiczne różne na mocy definicji
p i q musi być wszędzie tymi samymi p i q, inaczej błąd podstawienia

Definicja znaczka różne na mocy definicji ##:
Funkcje logiczne Y są różne na mocy definicji wtedy i tylko wtedy gdy dla identycznych wymuszeń na wejściach p i q mają różne kolumny wynikowe Y

Doskonale widać, że funkcje logiczne 1-5 spełniają definicję znaczka różne na mocy definicji ##

11.7.1 Implikacja prosta p|=>q w bramkach logicznych

Definicja implikacji prostej p|=>q w warunkach wystarczających => i koniecznych ~>:
Implikacja prosta p|=>q w logice dodatniej (bo q) to zachodzenie wyłącznie warunku wystarczającego => między tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne dla zajścia q
Stąd mamy:
A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q) =1*~(0)=1*1 =1
Prawą stronę czytamy:
Zajście p jest (=1) wystarczające => dla zajścia q (A1) i nie jest (=0) konieczne ~> dla zajścia q (B1)

Definicja warunku wystarczającego => w spójnikach „i”(*) i „lub”(+):
p=>q = ~p+q
##
Definicja warunku koniecznego w spójniach „i”(*) i „lub”(+):
p~>q = p+~q
Gdzie:
## - różne na mocy definicji
Stąd:
Implikacja prosta p|=>q w spójnikach „i”(*) i „lub”(+):
A1B1:
p|=>q=(A1: p=>q)*~(B1: p~>q) =(~p+q)*~(p+~q)= (~p+q)*(~p*q)=~p*~p*q+q*~p*q=~p*q
Do zapamiętania:
p|=>q = ~p*q

Realizacja implikacji prostej p|=>q w bramkach warunku wystarczającego => i koniecznego ~>:
Kod:

A1B1: p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(0)=1*1 =1

Fizyczna realizacja implikacji prostej p|=>q w bramkach logicznych:
        ------------                   -----------
p ------|o  =>     | Y=(p=>q)=~p+q     |         |
        |          |-------------------|         | Y=
q ------|          |                   | Bramka: | p|=>q=(p=>q)*~(p~>q)
        ------------                   | „i”(*)  |------------------------>
        ------------                   |         | p|=>q=(~p+q)*(~p*q)=~p*q
p ------|   ~>     | Y=(p~>q)=p+~q  ~Y |         |
        |          |---------------o---|         |
q ------|o         |                   |         |
        ------------                   -----------
Gdzie:
o - symbol negatora (~)
Fizyczna realizacja implikacji prostej p|=>q w bramkach logicznych:
p|=>q = (A1: p=>q)*~(B1: p~>q)=1*~(0)=1*1=1

Dokładnie to samo w rachunku zero-jedynkowym:
Definicje => i ~>    | Dowód zero-jedynkowy
   p  q  p=>q | p~>q | ~(p~>q) (p|=>q)=(p=>q)*~(p~>q) | ~p  p|=>q=~p*q
A: 1  1   1   |  1   |    0      0                    |  0    0
B: 1  0   0   |  1   |    0      0                    |  0    0
C: 0  1   1   |  0   |    1      1                    |  1    1
D: 0  0   1   |  1   |    0      0                    |  1    0
   1  2   3      4        5      6                       7    8
Doskonale widać zachodzącą tożsamość kolumn zero-jedynkowych:
6: p|=>q = (p=>q)*~(p~>q) [=] 8: p|=>q =~p*q
cnd


11.7.2 Implikacja odwrotna p|~>q w bramkach logicznych

2.
Implikacja odwrotna p|~>q:

Implikacja odwrotna p|~>q w logice dodatniej (bo q) to zachodzenie wyłącznie warunku koniecznego ~> między tymi samymi punktami i w tym samym kierunku
A1: p=>q =0 zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy:
A1B1: p|~>q = ~(A1: p=>q)*(B1: p~>q) = ~(0)*1 =1*1 =1
Prawą stronę czytamy:
Zajście p jest (=1) konieczne ~> dla zajścia q (B1) i nie jest (=0) wystarczające => dla zajścia q (A1)

Definicja warunku wystarczającego => w spójnikach „i”(*) i „lub”(+):
p=>q = ~p+q
##
Definicja warunku koniecznego w spójniach „i”(*) i „lub”(+):
p~>q = p+~q
Gdzie:
## - różne na mocy definicji
Stąd:
Implikacja odwrotne p|~>q w spójnikach „i”(*) i „lub”(+):
A1B1:
p|~>q = ~(A1: p=>q)*(B1: p~>q)=~(~p+q)*(p+~q)=(p*~q)*(p+~q)=p*~q*p+p*~q*~q=p*~q
Do zapamiętania:
p|~>q = p*~q

Realizacja implikacji odwrotnej p|~>q w bramkach warunku wystarczającego => i koniecznego ~>:
Kod:

A1B1: p|~>q =~(A1: p=>q)*(B1: p~>q)=~(0)*1=1*1 =1

Fizyczna realizacja implikacji odwrotnej p|~>q w bramkach logicznych:
        ------------                   -----------
p ------|o  =>     | Y=(p=>q)=~p+q  ~Y |         |
        |          |---------------o---|         | Y=
q ------|          |                   | Bramka: | p|~>q=~(p=>q)*(p~>q)
        ------------                   | „i”(*)  |---------------------->
        ------------                   |         | p|~>q=(p*~q)*(p+~q)=p*~q
p ------|   ~>     | Y=(p~>q)=p+~q     |         |
        |          |-------------------|         |
q ------|o         |                   |         |
        ------------                   -----------
Gdzie:
o - symbol negatora (~)
Fizyczna realizacja implikacji odwrotnej p|~>q w bramkach logicznych:
p|~>q =~(A1: p=>q)*(B1: p~>q)=~(0)*1=1*1=1

Dokładnie to samo w rachunku zero-jedynkowym:
Definicje => i ~>    | Dowód zero-jedynkowy
   p  q  p=>q | p~>q | ~(p=>q) (p|~>q)=~(p=>q)*(p~>q) | ~q  p|~>q=p*~q
A: 1  1   1   |  1   |    0      0                    |  0    0
B: 1  0   0   |  1   |    1      1                    |  1    1
C: 0  1   1   |  0   |    0      0                    |  0    0
D: 0  0   1   |  1   |    0      0                    |  1    0
   1  2   3      4        5      6                       7    8
Doskonale widać zachodzącą tożsamość kolumn zero-jedynkowych:
6: p|~>q =~(p=>q)*(p~>q) [=] 8: p|~>q =p*~q
cnd


11.7.3 Równoważność p<=>q w bramkach logicznych

3.
Równoważność p<=>q:

Równoważność p<=>q w logice dodatniej (bo q) to zachodzenie zarówno warunku wystarczającego => jak i koniecznego ~> między tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd mamy:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1 =1
Gdzie:
<=> - spójnik „wtedy i tylko wtedy” z języka potocznego
Lewą stronę czytamy:
Zajdzie p wtedy i tylko wtedy gdy zajdzie q
Prawą stronę czytamy:
Zajście p jest (=1) konieczne ~> (B1) i wystarczające => (A1) dla zajścia q
Innymi słowy:
Do tego by zaszło q jest (=1) potrzebne ~> (B1) i wystarczające => (A1) by zaszło p

Prawo Irbisa (mówiące o tożsamości pojęć/zbiorów):
Dwa pojęcia/zbiory są tożsame p=q wtedy i tylko wtedy gdy znajdują się w relacji równoważności p<=>q
p=q <=> (A1: p=>q)*(B1: p~>q) = p<=>q

Definicja warunku wystarczającego => w spójnikach „i”(*) i „lub”(+):
p=>q = ~p+q
##
Definicja warunku koniecznego w spójniach „i”(*) i „lub”(+):
p~>q = p+~q
Gdzie:
## - różne na mocy definicji
Stąd:
Równoważność p<=>q w spójnikach „i”(*) i „lub”(+):
A1B1:
p<=>q = (A1: p=>q)*(B1: p~>q)=(~p+q)*(p+~q)=~p*p+~p* ~q+q* p+q*~q =p*q+~p*~q
Do zapamiętania:
p<=>q = p*q+~p*~q

Realizacja równoważności p<=>q w bramkach warunku wystarczającego => i koniecznego ~>:
Kod:

A1B1: p<=>q = (A1: p=>q)*(B1: p~>q)=1*1 =1

Fizyczna realizacja równoważności p<=>q w bramkach logicznych:
        ------------                   -----------
p ------|o  =>     | Y=(p=>q)=~p+q     |         |
        |          |-------------------|         | Y=
q ------|          |                   | Bramka: | p<=>q=(p=>q)*(p~>q)
        ------------                   | „i”(*)  |---------------------->
        ------------                   |         | p<=>q=(~p+q)*(p+~q)
p ------|   ~>     | Y=(p~>q)=p+~q     |         | p<=>q=p*q+~p*~q
        |          |-------------------|         |
q ------|o         |                   |         |
        ------------                   -----------
Gdzie:
o - symbol negatora (~)

Fizyczna realizacja równoważności p<=>q w bramkach logicznych:
p<=>q = (A1: p=>q)*(B1: p~>q)=1*1=1

Dokładnie to samo w rachunku zero-jedynkowym:
Definicje => i ~>    | Dowód zero-jedynkowy
   p  q  p=>q | p~>q | p<=>q=(p=>q)*(p~>q) ~p ~q  p*q ~p*~q p<=>q=p*q+~p*~q
A: 1  1   1   |  1   |   1                  0  0   1    0     1
B: 1  0   0   |  1   |   0                  0  1   0    0     0
C: 0  1   1   |  0   |   0                  1  0   0    0     0
D: 0  0   1   |  1   |   1                  1  1   0    1     1
   1  2   3      4       5                  6  7   8    9    10
Doskonale widać zachodzącą tożsamość kolumn zero-jedynkowych:
5: p<=>q = (p=>q)*(p~>q) [=] 10: p<=>q = p*q+~p*~q
cnd


11.7.4 Spójnik „albo”($) w bramkach logicznych

Definicja spójnika „albo”($) p$q w logice dodatniej (bo q):
A1B1:
Spójnik „albo”($) p$q w logice dodatniej (bo q) to jednoczesne zachodzenie zarówno warunku koniecznego ~> jak i wystarczającego => w kierunku od p do ~q
A1: p=>~q =1 - zajście p jest wystarczające => dla zajścia ~q
B1: p~>~q =1 - zajście p jest konieczne ~> dla zajścia ~q
Stąd:
A1B1: p$q = (A1: p=>~q)*(B1: p~>~q) =1*1 =1
Lewą stronę czytamy:
Zajdzie p „albo”($) q
Prawą stronę czytamy:
Zajście p jest konieczne ~> (B1) i wystarczające => (A1) dla zajścia ~q
A1B1: p<=>~q =(A1: p=>~q)*(B1: p~>~q) = p$q
Gdzie:
<=> - spójnik „wtedy i tylko wtedy” z języka potocznego

Prawo Irbisa (mówiące o tożsamości pojęć/zbiorów):
Dwa pojęcia/zbiory są tożsame p=~q wtedy i tylko wtedy gdy znajdują się w relacji równoważności p<=>~q
p=~q <=> (A1: p=>~q)*(B1: p~>~q) = p<=>~q = p$q

Definicja warunku wystarczającego => w spójnikach „i”(*) i „lub”:
p=>q = ~p+q
##
Definicja warunku koniecznego w spójniach „i”(*) i „lub”:
p~>q = p+~q
Gdzie:
## - różne na mocy definicji

Stąd:
Definicja spójnika „albo”($) p$q wyrażona spójnikami „i”(*) i „lub”(+):
p$q=(A1: p=>~q)*(B1: p~>~q)=(~p+~q)*(p+q)=~p*p+~p*q+~q*p+~q*q= p*~q+~p*q
Do zapamiętania:
p$q = p*~q+~p*q

Zapiszmy jeszcze raz definicję spójnika „albo”($) p$q wyrażoną warunkiem wystarczającym => i koniecznym ~>:
A1B1: p$q = (A1: p=>~q)*(B1: p~>~q) =1*1 =1

Lewą stronę czytamy:
Zajdzie p „albo”($) q
A1B1: p$q = (A1: p=>~q)*(B1: p~>~q) =1*1 =1

Przykład:
Dowolny człowiek jest mężczyzną (M) „albo”($) kobietą (K)
A1B1: M$K = (A1: M=>~K)*(B1: M~>~K) =1*1=1

Prawą stronę czytamy:
Zajście p jest konieczne ~> (B1) i wystarczające => (A1) dla zajścia ~q
A1B1: p$q = (A1: p=>~q)*(B1: p~>~q) =1*1 =1
Przykład:
Bycie mężczyzną (M) jest warunkiem koniecznym ~> (B1) i wystarczającym => (A1) aby nie być kobietą (~K)
A1B1: M$K = (A1: M=>~K)*(B1: M~>~K) =1*1=1

Ostatni zapis to znana nam (patrz wyżej) definicja równoważności p<=>~q
A1B1: p$q = (A1: p=>~q)*(B1: p~>~q) = p<=>~q

Ostatni człon czytamy:
Zajdzie p wtedy i tylko wtedy gdy zajdzie ~q
p<=>~q = (A1: p=>~q)*(B1: p~>~q) = p$q

Nasz przykład:
Dowolny człowiek jest mężczyzną (M) wtedy i tylko wtedy gdy nie jest kobietą (~K)
A1B1: M<=>~K = (A1: M=>~K)*(B1: M~>~K) = M$K

Dowód prawdziwości warunku wystarczającego => A1:
A1.
Jeśli dowolny człowiek jest mężczyzną (M) to na 100% => nie jest kobietą (~K)
M=>~K =1
Bycie mężczyzną jest (=1) wystarczające => do tego, by nie być kobietą (~K)
Oczywistość dla każdego 5-cio latka

Dowód prawdziwości warunku koniecznego ~> B1:
B1.
Jeśli dowolny człowiek jest mężczyzną (M) to na 100% ~> nie jest kobietą (~K)
M~>~K =1
Bycie mężczyzną jest (=1) konieczne ~> do tego, by nie być kobietą (~K)
Oczywistość dla każdego 5-cio latka

Zauważmy, że wyskoczyło nam tu prawo Kameleona.

Prawo Kameleona:
Dwa zdania brzmiące identycznie z dokładnością do każdej literki i każdego przecinka nie muszą być matematycznie tożsame

Dowód to zdania A1 i B1:
A1: M=>~K =1 ## B1: M~>~K =1
Gdzie:
## - różne na mocy definicji

Najprostszy dowód „nie wprost” tego faktu:
Zauważmy, że jeśli zapiszemy tu tożsamość logiczną [=]:
A1: M=>~K =1 [=] B1: M~>~K =1
To definicja równoważności A1B1: M<=>~K legnie w gruzach

Definicja tożsamości logicznej [=]:
Prawdziwość dowolnej strony tożsamości logicznej [=] wymusza prawdziwość drugiej strony
Fałszywość dowolnej strony tożsamości logicznej [=] wymusza fałszywość drugiej strony
Tożsame znaczki tożsamości logicznej:
[=], "=", <=> (wtedy i tylko wtedy)

Dowód wprost:
Warunek wystarczający A1: p=>q = ~p+q ## Warunek konieczny B1: p~>q = p+~q
Gdzie:
## - różne na mocy definicji

Definicja bramki „albo”($):
Y= p$q = (A1: p=>~q)*(B1: p~>~q) = p<=>~q
Realizacja fizyczna (SN7486):
[link widoczny dla zalogowanych]
Matematycznie zachodzi tożsamość:
Bramka XOR = bramka „albo”($) = spójnik „albo”($) z języka potocznego

Realizacja spójnika „albo”($) w bramkach warunku wystarczającego => i koniecznego ~>:
Kod:

A1B1: p$q = (A1: p=>~q)*(B1: p~>~q)= p<=>~q

Fizyczna spójnika „albo”($) p$q w bramkach logicznych:
        ------------                   -------------
p ------|o  =>     | Y=(p=>~q)=~p+~q   |           |
     ~q |          |-------------------|           |
q --o---|          |                   | Bramka:   | p$q=(p=>~q)*(p~>~q)
        ------------                   | „i”(*)    |---------------------->
        ------------                   |           | p$q=(p=>~q)*(p~>~q)
p ------|   ~>     | Y=(p~>~q)=p+q     |           | p$q=p*~q+~p*q
     ~q |          |-------------------|           |
q --o---|o         |                   |           |
        ------------                   -------------
Gdzie:
o - symbol negatora (~)
Fizyczna realizacja spójnika „albo”($) w bramkach logicznych:
p$q = (A1: p=>~q)*(B1: p~>~q)=1*1=1

Dokładnie to samo w rachunku zero-jedynkowym:
Definicje => i ~>  | Dowód zero-jedynkowy
                   |        A:    B:
   p  q  p=>q p~>q | ~p ~q  p=>~q p~>~q p$q=A*B  p*~q ~p*q  p$q=p*~q+~p*q
A: 1  1   1    1   |  0  0   0     1     0        0     0    0
B: 1  0   0    1   |  0  1   1     1     1        1     0    1
C: 0  1   1    0   |  1  0   1     1     1        0     1    1
D: 0  0   1    1   |  1  1   1     0     0        0     0    0
   1  2   3    4      5  6   7     8     9       10    11   12
Doskonale widać zachodzącą tożsamość kolumn zero-jedynkowych:
9: p$q = (p=>~q)*(p~>~q) [=] 12: p$q = p*~q+~p*q
cnd

Związek między spójnikiem „albo”($) i spójnikiem równoważności p<=>q to relacja różne na mocy definicji ##
Dowód:
Definicja bramki „albo”($):
Y= p$q = (A1: p=>~q)*(B1: p~>~q) = p<=>~q = p*~q+~p*q
##
Definicja równoważności p<=>q:
Y= (p<=>q) = (A1: p=>q)*(B1: p~>q) = p*q+~p*~q
Gdzie:
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia
## - funkcje logiczne Y są różne na mocy definicji ## bo prawe strony tych funkcji nie są tożsame

11.7.5 Definicja „chaosu” (|~~>) w bramkach logicznych

5
Definicja chaosu p|~~>q w logice dodatniej (bo q):

Chaos p|~~>q w logice dodatniej (bo q) to nie zachodzenie ani warunku koniecznego ~> ani też warunku wystarczającego => między tymi samymi punktami i w tym samym kierunku
A1: p=>q =0 - zajście p nie jest (=0) wystarczające => dla zajścia q
B1: p~>q =0 - zajście p nie jest (=0) konieczne ~> dla zajścia q
stąd:
A1B1:
p|~~>q = ~(A1: p=>q)*~(B1: p~>q) =~(0)*~(0) = 1*1 =1
Czytamy:
Definicja chaosu p|~~>q w logice dodatniej (bo q) jest spełniona wtedy i tylko wtedy gdy zajście p nie jest (=0) konieczne ~> dla zajścia q i jednocześnie zajęcie p nie jest (=0) wystarczające => dla zajścia q

Z teorii chaosu (punkt 8.1) wiemy, że kodowania elementem wspólnym zbiorów ~~> w zbiorach, lub zdarzeniem możliwym ~~> w zdarzeniach przez wszystkie możliwe przeczenia p i q muszą dać wszędzie wynikowe jedynki, inaczej gwałcimy definicję kontrprzykładu.
Stąd mamy:
Y = p|~~>q = A: p*q + B: p*~q + C: ~p*q + D: ~p*~q= p*(q+~q)+~p*(q+~q)=p+~p=1
Innymi słowy:
W tabeli prawdy spójnika chaosu p|~~>q przez wszystkie możliwe przeczenia p i q nie ma żadnego warunku wystarczającego =>, co pociąga za sobą brak warunku koniecznego ~>

Fizyczna realizacja chaosu p|~~>q w bramkach „i”(*) i „lub”(+) będzie zatem następująca:
Kod:

Fizyczna realizacja chaosu p|~~>q w bramkach logicznych:
        ----------        ------------
p ------| Bramka | p*q    | Bramka   |
        | „i”(*) |--------| „lub”(+) |
q ------|   A    |        |          |      ------------
        ----------        |          | p    | Bramka   |
        ----------        |  A+B     |------| „lub”(+) |
p ------| Bramka | p*~q   |          |      |          |
     ~q | „i”(*) |--------|          |      |          |
q -o----|   B    |        |          |      |          |
        ----------        ------------      |          | Y= p|~~>q=p+~p=1
                                            | A+B+C+D  |------------------>
     ~p ----------        ------------      |          |
p -o----| Bramka | ~p*q   | Bramka   |      |          |
        | „i”(*) |--------| „lub”(+) |      |          |
q ------|   C    |        |          | ~p   |          |
        ----------        |   C+D    |------|          |
     ~p ----------        |          |      |          |
p -o----| Bramka |~p*~q   |          |      ------------
     ~q | „i”(*) |--------|          |
q -o----|   D    |        |          |
        ----------        ------------

Gdzie:
o - symbol negatora (~)
Dokładnie to samo w rachunku zero-jedynkowym.

Definicje „*” oraz „+” | Dowód zero-jedynkowy dla chaosu p|~~>q:
   p  q ~p ~q  p*q p+q | p*q p*~q ~p*q ~p*~q p*q+p*~q ~p*q+~p*~q p|~~>q
A: 1  1  0  0   1   1  |  1   1     0    0      1         0        1
B: 1  0  0  1   0   1  |  0   1     0    0      1         0        1
C: 0  1  1  0   0   1  |  0   0     1    0      0         1        1
D: 0  0  1  1   0   0  |  0   0     0    1      0         1        1
   1  2  3  4   5   6  |  a   b     c    d      e         f        g
Doskonale widać same jedynki w kolumnie wynikowej p|~~>q, czyli:
Y = p|~~>q = A: p*q + B: p*~q + C: ~p*q + D: ~p*~q= p*(q+~q)+~p*(q+~q)=p+~p=1
cnd


11.7.6 Zero-jedynkowa interpretacja znaczka różne na mocy definicji ##

Rozważmy omówione wyżej definicje znaczków =>, ~>, |=>, |~>, <=> w spójnikach „i”(*) i „lub”(+):
1.
Definicja warunku wystarczającego p=>q w spójnikach „i”(*) i „lub”(+):
Y = p=>q = ~p+q
##
2.
Definicja warunku koniecznego p~>q w spójnikach „i”(*) i „lub”(+):
Y = p~>q = p+~q
##
3.
Definicja implikacji prostej p|=>q w spójnikach „i”(*) i „lub”(+):
Y = p|=>q = ~p*q
##
4.
Definicja implikacji odwrotnej p|~>q w spójnikach „i”(*) i „lub”(+):
Y = p|~>q = p*~q
##
5.
Definicja równoważności p<=>q w spójnikach „i”(*) i „lub”(+):
Y = p<=>q = p*q + ~p*~q

Gdzie:
## - różne na mocy definicji

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne Y w logice dodatniej (bo Y) są różne na mocy definicji ## wtedy i tylko wtedy gdy dla identycznych wymuszeń na wejściach p i q mają różne kolumny wynikowe Y
Kod:

T1
Dowód poprawności znaczka ## w rachunku zero-jedynkowym
              1: Y= p=>q 2: Y= p~>q 3: Y= p|=>q 4: Y= p|~>q 5: Y= p<=>q
   p  q ~p ~q     =~p+ q     = p+~q     =~p* q      = p*~q      =p*q+~p*~q
A: 1  1  0  0    1          1          0           0           1
B: 1  0  0  1    0          1          0           1           0
C: 0  0  1  1    1          1          0           0           1
D: 0  1  1  0    1          0          1           0           0

W tabeli T1 doskonale widać perfekcyjnie spełnioną definicje znaczka różne na mocy definicji ## dla funkcji logicznych Y (1 do 5) w logice dodatniej (bo Y)
cnd

11.8 Dowód poprawności algebry Kubusia w funkcjach logicznych

Zapiszmy utworzone wyżej schematy ideowe spójników logicznych w bramkach logicznych w postaci uproszczonej z uwzględnienie funkcji logicznej w logice dodatniej (bo Y) i ujemnej (bo ~Y)
Kod:

TA
1.  --------------
p –-| Spójnik    |
    | „i”(*)     |--------------------------o----------------------------->
q –-| SN7408     | 1A: Y=p*q                # 1B: ~Y=~p+~q
    --------------
##
2.  --------------
p –-| Spójnik    |
    | „lub”(+)   |--------------------------o----------------------------->
q –-| SN7432     | 2A: Y= p+q               # 2B: ~Y=~p*~q
    --------------
##
3.  ----------------
p –-|Warunek       |
    |wystarczający |------------------------o----------------------------->
q –-| Y=(p=>q)     |3A: Y=(p=>q)=~p+q       # 3B: ~Y=~(p=>q)= p*~q
    ----------------
##
4.  --------------
p –-|Warunek     |
    |konieczny   |--------------------------o----------------------------->
q –-| Y=(p~>q)   | 4A: Y=(p~>q)= p+~q       # 4B: ~Y=~(p~>q)=~p* q
    --------------
##
5.  --------------
p –-|Implikacja  | Y=(A1: p=>q)*~(B1: p~>q) # ~Y=~((A1: p=>q)*~(B1: p~>q))
    |prosta      |--------------------------o----------------------------->
q –-| Y=(p|=>q)  | 5A: Y=(p|=>q)=~p* q      # 5B: ~Y=~(p|=>q)= p+~q
    --------------
##
6.  --------------
p –-|Implikacja  | Y=~(A1: p=>q)*(B1: p~>q) # ~Y=~(~(A1: p=>q)*(B1: p~>q))
    |odwrotna    |--------------------------o----------------------------->
q –-| Y=(p|~>q)  | 6A: Y=(p|~>q)= p*~q      # 6B: ~Y=~(p|~>q)= ~p+q
    --------------
##
7.  --------------
p –-|Równoważność| Y=(A1: p=>q)*(B1: p~>q)  # ~Y=~((A1: p=>q)*(B1: p~>q))
    |Y=(p<=>q)   |--------------------------o----------------------------->
q –-|            | 7A: Y=(p<=>q)= p*q+~p*~q # 7B: ~Y=~(p<=>q)= p*~q+~p*q
    --------------
##
8.  --------------
p –-| Spójnik    | Y=(A1: p=>~q)*(B1: p~>~q)# ~Y=~((A1: p=>~q)*(B1: p~>~q))
    | „albo”($)  |--------------------------o----------------------------->
q –-| Y=(p$q)    | 8A: Y=(p$q)= p*~q+~p*q   # 8B: ~Y=~(p$q)= p*q+~p*~q
    --------------
##
9.  --------------
p –-| Spójnik    | Y=~(A1: p=>q)*~(B1: p~>q)# ~Y=~(~(A1: p=>q)*~(B1: p~>q))
    | chaosu     |--------------------------o----------------------------->
q –-| Y=(p|~~>q) | 9A: Y=(p|~~>q)=1         # 9B: ~Y=~(p|~~>q)=0
    --------------
Gdzie:
o – symbol negatora (~), tożsamy ze znaczkiem #
# - różne w znaczeniu iż dowolna strona # jest negacją drugiej strony
## - różne na mocy definicji bramek logicznych
p i q muszą być wszędzie tymi samymi p i q, inaczej błąd podstawienia

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ## dla funkcji logicznych:
Dwie funkcje logiczne {Y, ~Y} są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest zaprzeczeniem drugiej.

Zapiszmy powyższe definicje w bramkach logicznych w tabeli prawdy:
Kod:

Tabela TA
1A: Y=p*q                # 1B: ~Y=~p+~q
##
2A: Y= p+q               # 2B: ~Y=~p*~q
##
3A: Y=(p=>q)=~p+q        # 3B: ~Y=~(p=>q)= p*~q
##
4A: Y=(p~>q)= p+~q       # 4B: ~Y=~(p~>q)=~p* q
##
5A: Y=(p|=>q)=~p* q      # 5B: ~Y=~(p|=>q)= p+~q
##
6A: Y=(p|~>q)= p*~q      # 6B: ~Y=~(p|~>q)= ~p+q
##
7A: Y=(p<=>q)= p*q+~p*~q # 7B: ~Y=~(p<=>q)= p*~q+~p*q
##
8A: Y=(p$q)= p*~q+~p*q   # 8B: ~Y=~(p$q)= p*q+~p*~q
##
9A: Y=(p|~~>q)=1         # 9B: ~Y=~(p|~~>q)=0

Definicja znaczka różne #:
Dowolna strona znaczka różne # jest negacją drugiej strony

Definicja znaczka różne na mocy definicji ##:
Dwie funkcje logiczne są różne na mocy definicji ## wtedy i tylko wtedy gdy nie są tożsame i żadna z nich nie jest negacją drugiej

Doskonale widać, że w tabeli TA definicje obu znaczków # i ## są perfekcyjnie spełnione.

11.8.1 Prawo Grzechotnika - Armagedon ziemskiego rachunku zero-jedynkowego

Funkcje logiczne w tabeli TA wolno nam dowolnie przestawiać.
Poprzestawiajmy je tak, by wyrażenia z prawej strony funkcji logicznych Y i ~Y były tożsame
Kod:

TB
3A:  Y=(p=>q) =~p+ q        ##  6B: ~Y=~(p|~>q)=~p+ q
4A:  Y=(p~>q) = p+~q        ##  5B: ~Y=~(p|=>q)= p+~q
5A:  Y=(p|=>q)=~p* q        ##  4B: ~Y=~(p|~>q)=~p+ q
6A:  Y=(p|~>q)= p*~q        ##  3B: ~Y=~(p=>q) = p*~q
7A:  Y=(p<=>q)= p* q+~p*~q  ##  8B: ~Y=~(p$q)  = p* q+~p*~q
8A:  Y=(p$q)  = p*~q+~p* q  ##  7B: ~Y=~(p<=>q)= p*~q+~p* q
Gdzie:
## - różne na mocy definicji
p i q muszą być tymi samymi p i q, inaczej błąd podstawienia

Film powinien zaczynać się od trzęsienia ziemi, potem zaś napięcie ma nieprzerwanie rosnąć
Alfred Hitchcock.


Największą tragedią ziemskiej logiki matematycznej jest fakt, że w bramkach logicznych po stronie wejścia cyfrowego widzi ona zmienne binarne w logice dodatniej (bo p) i ujemnej (bo ~p), ale nie widzi dokładnie tego samego po stronie wyjścia cyfrowego Y, tu obowiązuje bezwzględny zakaz widzenia wyjścia Y w logice ujemnej (bo ~Y).
Dowód:
W całym Internecie (plus podręczniki matematyki) nie znajdziemy ani jednej kolumny wynikowej w rachunku zero-jedynkowym opisanej funkcją logiczną w logice ujemnej (bo ~Y).

Odpowiednikiem tego faktu w matematyce klasycznej byłoby widzenie w układzie Kartezjańskim na osi X zmiennych dodatnich (x) i zmiennych ujemnych (~x) z zakazem widzenia dokładnie tego samego na osi Y, gdzie dozwolone byłoby widzenie jedynie zmiennych dodatnich (y).
Czy ktokolwiek wyobraża sobie współczesną matematykę z takim upośledzonym układem Kartezjańskim?

Prawo Grzechotnika:
Ziemski rachunek zero-jedynkowy który nie widzi funkcji logicznej w logice dodatniej (bo Y) i funkcji logicznej w logice ujemnej (bo ~Y) jest wewnętrznie sprzeczny na poziomie funkcji logicznych.

Aktualny rachunek zero-jedynkowy ziemskich matematyków operuje tylko i wyłącznie na wyrażeniach algebry Boole’a, czyli na prawych stronach funkcji logicznych Y i ~Y.

Usuńmy zatem wszystkie funkcje logiczne Y i ~Y z tabeli TB.
Kod:

TB"
3A:  ~p+ q        [=]  6B: ~p+ q
4A:   p+~q        [=]  5B:  p+~q
5A:  ~p* q        [=]  4B: ~p+ q
6A:   p*~q        [=]  3B:  p*~q
7A:   p* q+~p*~q  [=]  8B:  p* q+~p*~q
8A:   p*~q+~p* q  [=]  7B:  p*~q+~p* q
Gdzie:
p i q muszą być tymi samymi p i q, inaczej błąd podstawienia

Doskonale widać że po usunięciu z tabeli TB funkcji logicznych Y i ~Y zgwałcony został najważniejszy znaczek logiki matematycznej, znaczek różne na mocy definicji ##, bowiem w tabeli TB" we wszystkich liniach musimy postawić znak tożsamości logicznej [=]

Definicja tożsamości logicznej [=]:
Prawdziwość dowolnej strony tożsamości logicznej [=] wymusza prawdziwość drugiej strony
Fałszywość dowolnej strony tożsamości logicznej [=] wymusza fałszywość drugiej strony
Tożsame znaczki tożsamości logicznej:
[=], "=", <=> (wtedy i tylko wtedy)


Ostatnio zmieniony przez rafal3006 dnia Nie 8:40, 13 Paź 2024, w całości zmieniany 8 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 35257
Przeczytał: 24 tematy

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Pon 10:45, 16 Wrz 2024    Temat postu:

Kompendium algebry Kubusia
Część V Kubusiowa teoria zbiorów

Spis treści
12.0 Kubusiowa teoria zbiorów 2
12.1 Elementarne działania logiczne na zbiorach 3
12.1.1 Suma logiczna zbiorów 3
12.1.2 Iloczyn logiczny zbiorów 4
12.1.3 Różnica (-) zbiorów 4
12.2 Definicje podstawowe w Kubusiowej teorii zbiorów 5
12.2.1 Definicja pojęcia 5
12.2.2 Definicja elementu zbioru 5
12.2.3 Definicja zbioru 5
12.2.4 Definicja Uniwersum U 5
12.2.5 Definicja zbioru pustego [] w sensie absolutnym 6
12.3 Dziedzina 6
12.3.1 Zaprzeczenie zbioru 6
12.3.2 Nazwa własna zbioru 7
12.3.3 Dziedzina użyteczna w języku potocznym 7
12.4 Definicja definicji 9
12.4.1 Dowód iż każdy 5-cio latek zna definicję Uniwersum 10
12.5 Warunek konieczny prawdziwości zdania warunkowego "Jeśli p to q" 11
12.5.1 Zdanie "Jeśli p to q" ze spełnioną definicją wspólnej dziedziny 11
12.6 Zdania "Jeśli p to q" z niespełnioną definicją wspólnej dziedziny dla p i q 12
12.6.1 Zdanie "Jeśli p to q" z niespełnioną definicją wspólnej dziedziny dla p i q 12
12.6.2 Zdania "Jeśli p to q" gdzie p lub q jest zbiorem/zdarzeniem pustym 13
12.7 Zaprzeczenie zdania w algebrze Kubusia 14
12.7.1 Definicje kontrprzykładu w zdarzeniach i zbiorach 14
12.7.2 Przykłady zaprzeczeń zdań w algebrze Kubusia 16
12.8 Definicje zbioru pustego 18
12.8.1 Definicja zbioru pustego [] w sensie absolutnym 19
12.8.2 Definicja zbioru pustego [] względem wybranej dziedziny 19
12.8.3 Definicja zbioru pustego [] będącego twardym fałszem 19
12.9 Uniwersum vs zbiór pusty [] w sensie absolutnym 21
12.9.1 Definicja dziedziny absolutnej DA 21
12.9.2 Definicja zbioru wszystkich zbiorów 22
12.9.3 Prawo Owieczki 22
12.10 Jak wynalazłem niebieską diodę i zmieniłem świat 23
12.10.1 Geneza wszelkich okryć w naszym Wszechświecie 26



12.0 Kubusiowa teoria zbiorów

Punkty 1.0 do 11.0 dotyczą teorii zdarzeń, czyli logiki matematycznej którą w praktyce rozumie każdy 5-cio latek na przykładach stosownych do jego wieku np. o chmurce i deszczu.
Teoria zbiorów dla potrzeb logiki matematycznej opisana w punktach 12.0 do 18.0 jest analogiczna do teorii zdarzeń.

Definicja pojęcia:
Pojęcie to wyrażenie zrozumiałe dla człowieka

Przykłady pojęć zrozumiałych:
p = [pies, koło, miłość, krasnoludek, zbór wszystkich zwierząt ...]

Przykłady pojęć niezrozumiałych:
q = [agstd, sdked …]

Pojęcia mają wartości logiczne:
1 = prawda, gdy pojęcie jest zrozumiałe (np. pies)
0 = fałsz, gdy pojęcie jest niezrozumiale (np. agstd)

Prawa Prosiaczka
Prawa Prosiaczka omówiono szczegółowo w punkcie 1.4

I Prawo Prosiaczka:
Prawda (=1) w logice dodatniej (bo p) jest tożsama z fałszem (=0) w logice ujemnej (bo ~p)
(p=1) = (~p=0)
##
II Prawo Prosiaczka:
Prawda (=1) w logice ujemnej (bo ~p) jest tożsama z fałszem (=0) w logice dodatniej (bo p)
(~p=1) = (p=0)
Gdzie:
## - różne na mocy definicji

Przykład 1.
(p=1) = (~p=0)
1.
[pies]=1 - prawdą jest (=1) iż wiem co znaczy pojęcie pies
Prawo Prosiaczka:
(p=1) = (~p=0)
Nasz przykład:
(pies=1) = (~pies=0) - na mocy prawa Prosiaczka
stąd zdanie tożsame do 1:
~pies=0 - fałszem jest (=0), że nie wiem (~) co znaczy pojęcie [pies]

Przykład 2.
(~p=1) = (p=0)
2.
agstd=0 - fałszem jest (=0) iż wiem co znaczy pojęcie „agstd”
Prawo Prosiaczka:
(agstd=0) = (~agstd=1)
stąd zdanie tożsame do 2:
~agstd=1 - prawdą jest (=1), że nie wiem (~) co znaczy pojęcie agstd

Prawo Rekina:
Żaden człowiek nie posługuje się w języku potocznym pojęciami których nie rozumie

Definicja elementu zbioru:
Element zbioru to dowolne pojęcie zrozumiałe przez człowieka, które umieści w swoim zbiorze

Definicja zbioru:
Zbiór to zestaw dowolnych pojęć zrozumiałych dla człowieka

Zauważmy, że w definicji zbioru nie ma zastrzeżenia, iż elementem zbioru nie może być podzbiór, czy też zbiór.

Zbiory, podobnie jak pojęcia, mają wartości logiczne:
[x]=1 - zbiór niepusty, zawierający pojęcia zrozumiałe dla człowieka
[] =0 - zbiór pusty, zawierający zero pojęć zrozumiałych dla człowieka

12.1 Elementarne działania logiczne na zbiorach

Elementarne działania na zbiorach to:
(+) - suma logiczna zbiorów
(*) - iloczyn logiczny zbiorów
(-) - różnica logiczna zbiorów

12.1.1 Suma logiczna zbiorów

Suma logiczna (+) zbiorów:
Y=p+q
Wszystkie elementy zbiorów p i q bez powtórzeń

Oznaczmy skrótowo:
K - Kubuś
T - Tygrysek
P - Prosiaczek
Zdefiniujmy dwa zbiory p i q:
p=[K, T] =1 - bo zbiór niepusty
q=[T, P] =1 - bo zbiór niepusty
Y=p+q=[K,T]+[T,P]=[K,T,T,P] = [K+T+T+P] = [K+T+P] = [K,T,P] =1 - bo zbiór wynikowy niepusty
Bo prawo Algebry Boole’a:
p+p =p
Uwaga:
Przecinek przy wyliczaniu elementów zbioru jest tożsamy ze spójnikiem „lub”(+) z algebry Boole’a co pokazano i udowodniono wyżej.

12.1.2 Iloczyn logiczny zbiorów

Iloczyn logiczny (*) zbiorów:
Y = p*q
Wspólne elementy zbiorów p i q bez powtórzeń
Y = p*q =1 - gdy zbiory p i q mają (=1) co najmniej jeden element wspólny (zbiór wynikowy jest niepusty)
Y = p*q =0 - gdy zbiory p i q nie mają (=0) elementu wspólnego (są rozłączne)

Oznaczmy skrótowo:
K - Kubuś
T - Tygrysek
P - Prosiaczek
S - Słoń
Zdefiniujmy zbiory p, q, r:
p=[K,T] =1 - bo zbiór niepusty
q=[T,P] =1 - bo zbiór niepusty
r=[P,S] =1 - bo zbiór niepusty
Y=p*q=[K,T]*[T,P]=[T] =1 - zbiory p i q mają (=1) co najmniej jeden element wspólny
Y=p*r=[K,T]*[P,S] =[] =0 - zbiory p i r nie mają (=0) elementu wspólnego

Identyczne wyniki można uzyskać poprzez wymnażanie logiczne zbiorów.
Przykład:
p*q = [K+T]*[T+P] = K*T + K*P + T*T + T*P =[] + [] + T + [] = T
bo:
K*T+ K*P + T*P =[]+[]+[] =0+0+0 =0 - iloczyn logiczny „*” zbiorów (pojęć) rozłącznych jest zbiorem pustym []
T*T =T
bo prawo algebry Boole’a:
p*p =p
Jak widzimy, przy wyliczaniu elementów zbioru przecinek jest tożsamy ze spójnikiem „lub”(+) rodem z algebry Boole’a.

12.1.3 Różnica (-) zbiorów

Różnica (-) zbiorów:
Y=p-q
Wszystkie elementy zbioru p pomniejszone o elementy zbioru q

Oznaczmy:
K - Kubuś
T - Tygrysek
p=[K,T] =1 - bo zbiór niepusty
q=[T] =1 - bo zbiór niepusty
Stąd:
Y=p-q = [K,T]-[T] =[K+T-T] =[K] =1 - bo zbiór wynikowy niepusty
Y=q-p =[K]-[K,T]=[K-(K+T)]=[K-K-T]= [] + [-T] =[-T] =[] =0 - bo zbiór wynikowy pusty

Prawo odejmowania zbiorów:
Jeśli w operacji odejmowania zbiorów wynikowy zbiór jest z minusem {-} to taki zbiór zamieniamy na zbiór pusty [].

12.2 Definicje podstawowe w Kubusiowej teorii zbiorów

Przypomnijmy znane już definicje podstawowe.

12.2.1 Definicja pojęcia

Definicja pojęcia:
Pojęcie to wyrażenie zrozumiałe dla człowieka

Przykłady pojęć zrozumiałych:
p = [pies, miłość, krasnoludek, ZWZ, LN ...]
Przykłady pojęć niezrozumiałych:
q = [agstd, sdked …]

Pojęcia mają wartości logiczne:
1 = prawda, gdy pojęcie jest zrozumiałe (np. pies)
0 = fałsz, gdy pojęcie jest niezrozumiale (np. agstd)

Prawo Rekina:
Żaden człowiek nie posługuje się w języku potocznym pojęciami których nie rozumie

12.2.2 Definicja elementu zbioru

Definicja elementu zbioru:
Element zbioru to dowolne pojęcie zrozumiałe przez człowieka, które umieści w swoim zbiorze

12.2.3 Definicja zbioru

Definicja zbioru:
Zbiór to zestaw dowolnych pojęć zrozumiałych dla człowieka

Zauważmy, że w definicji zbioru nie ma zastrzeżenia, iż elementem zbioru nie może być podzbiór, czy też zbiór.

Zbiory, podobnie jak pojęcia, mają wartości logiczne:
[x]=1 - zbiór niepusty, zawierający pojęcia zrozumiałe dla człowieka
[] =0 - zbiór pusty, zawierający zero pojęć zrozumiałych dla człowieka

12.2.4 Definicja Uniwersum U

Definicja Uniwersum:
Uniwersum to zbiór wszelkich pojęć zrozumiałych dla człowieka.
Czyli:
U = [pies, miłość, krasnoludek ...] - wyłącznie pojęcia rozumiane przez człowieka (zdefiniowane)

Uniwersum człowieka jest dynamiczne tzn. rozszerza się gdy się uczymy (poznajemy nowe pojęcia) i zawęża gdy zapominamy wyuczonych kiedyś pojęć. Na mocy definicji w żadnym momencie nie możemy wyjść poza swoje, indywidualne Uniwersum.
Zauważmy, że zaledwie 40 lat temu pojęcie „Internet” było zbiorem pustym, nie istniało - ale w dniu dzisiejszym już tak nie jest, Uniwersum ludzkości rozszerzyło się o to pojęcie, znane praktycznie każdemu człowiekowi na Ziemi.

Uniwersum lokalne:
Uniwersum lokalne to zbiór pojęć związanych z konkretną gałęzią wiedzy np. medycznej, elektronicznej etc. gdzie znane każdemu człowiekowi niektóre słówka znaczą co innego.

Przykład:
Bramka w teorii bramek logicznych to co innego niż bramka na boisku piłkarskim
W rzadkich przypadkach w dowolnym języku mogą występować dwa słowa identyczne, ale znaczące co innego.
Przykład:
W języku polskim morze i może
Tu różnice są rozpoznawalne albo w pisowni (jak wyżej) albo w kontekście użycia tego słówka:
Może pojedziemy nad morze?
Z reguły dla najpopularniejszych słówek mamy sporo synonimów, co w logice jest bez znaczenia.

Podsumowując:
Przedstawiona wyżej definicja Uniwersum jest pojęciem rzeczywistym łatwym do zrozumienia przez każdego ucznia I klasy LO.

12.2.5 Definicja zbioru pustego [] w sensie absolutnym

Definicja zbioru pustego [] w sensie absolutnym:
Zbiór pusty [] to zbiór zawierający zero pojęć zrozumiałych dla człowieka
Czyli:
[] = [agstd, sdked …] - wyłącznie pojęcia niezrozumiałe dla człowieka (jeszcze niezdefiniowane)

Zauważmy, że zbiór pusty [] będzie tu podzbiorem => siebie samego (wyjaśnienie w pkt. 12.9):
[]=>[] =1
0=>0 =1

12.3 Dziedzina

Definicja dziedziny:
Dziedzina to dowolnie wybrany zbiór na którym operujemy

Ograniczeniem górnym w definiowaniu dziedziny jest Uniwersum (zbiór wszystkich pojęć zrozumiałych dla człowieka)
Zbiór pusty [] to zbiór pojęć niezrozumiałych dla człowieka, zatem na tym zbiorze nie możemy operować.
Wniosek:
Z definicji nie możemy przyjąć zbioru pustego za dziedzinę.

12.3.1 Zaprzeczenie zbioru

Definicja zaprzeczenia (~) zbioru:
Zaprzeczeniem (~) zbioru p nazywamy uzupełnienie zbioru p do dziedziny D
~p=[D-p]

Matematycznie zachodzi tożsamość:
Zaprzeczenie zbioru (~) = Negacja zbioru (~)

Uwaga:
Aby zapisać zbiór ~p będący negacją zbioru p musimy określić wspólną dziedzinę dla zbiorów p i ~p
Definicja dziedziny:
p+~p =D =1 - zbiór ~p jest uzupełnieniem zbioru p do wspólnej dziedziny D
p*~p =[] =0 - zbiory p i ~p są rozłączne, iloczyn logiczny zbiorów jest zbiorem pustym []

Przykłady:
1.
Przykład na poziomie 5-cio latka:
K = Kubuś
T = Tygrysek
p=[K] - definiujemy zbiór p
D=[K,T] - definiujemy dziedzinę
Stąd:
~p=[D-p] = [(K+T)-K]=[T]
2.
Przykład na poziomie ucznia I klasy LO:
K - zbiór wszystkich kobiet
M - zbiór wszystkich mężczyzn
C (człowiek) - zbiór wszystkich ludzi (wspólna dziedzina dla M i K)
C=M+K - zbiór człowiek to suma logiczna zbiorów M i K
Stąd:
~M=[C-M]=[M+K-M]=K
~K=[C-K]=[M+K-K]=M
Stąd:
K=~M - zbiór kobiet (K) to zanegowany zbiór mężczyzn (~M) w dziedzinie C (człowiek)
M=~K - zbiór mężczyzn (M) to zanegowany zbiór kobiet (~K) w dziedzinie C (człowiek)

12.3.2 Nazwa własna zbioru

Rozróżniamy dwa rodzaje zbiorów ze względu na nazwę:
- zbiory mające nazwę własną
- zbiory nie mające nazwy własnej

Definicja nazwy własnej zbioru:
Nazwa własna zbioru to nazwa jednoznacznie opisująca dany zbiór w sposób zrozumiały dla wszystkich ludzi

Przykład zbioru mającego nazwę własną:
ZWZ - zbiór wszystkich zwierząt

Przykład zbioru nie mającego nazwy własnej:
p = [ZWZ, miłość, samolot]

W języku potocznym z oczywistych względów użyteczne są wyłącznie dziedziny mające nazwy własne, zrozumiałe dla wszystkich, gdzie nie trzeba wypisywać wszystkich pojęć zawartych w dziedzinie.

12.3.3 Dziedzina użyteczna w języku potocznym

Definicja dziedziny użytecznej w języku potocznym:
Dziedzina użyteczna w języku potocznym do dowolny zbiór na którym operujemy mający nazwę własną nie będący Uniwersum.

Uniwersum - zbiór wszelkich pojęć zrozumiałych dla człowieka.
W języku potocznym nikt nie używa pojęcia Uniwersum w przeciwieństwie do np. zbioru wszystkich zwierząt.

Rozważmy poniższe dziedziny [ZWZ, ZWS] mające nazwy własne:

Weźmy zbiór jednoelementowy:
P=[pies] - zbiór P zawiera tylko jeden element [pies].
Uwaga:
Nie jest tu istotne że różnych psów jest bardzo dużo bo:
pies Jasia = pies Zuzi = po prostu [pies]
[pies]+[pies] = [pies] - prawo algebry Boole’a (p+p=p)
Pojęcia [pies] są tożsame, nieistotne jest, że jeden pies jest kundelkiem a drugi jamnikiem, że jeden należy do Jasia a drugi do Zuzi.
[pies]*[pies] = [pies] - prawo algebry Boole’a (p*p=p)

ZWZ.
Dla zbioru P=[pies] przyjmijmy dziedzinę:
ZWZ - zbiór wszystkich zwierząt
Stąd mamy zbiór ~P:
~P=[ZWZ-P] - zbiór wszystkich zwierząt minus jeden element P=[pies]

ZWS.
Dla zbioru P=[pies] przyjmijmy dziedzinę:
ZWS - zbiór wszystkich ssaków
Stąd mamy zbiór ~P:
~P=[ZWS-P] - zbiór wszystkich ssaków minus jeden element P=[pies]

Wnioski:
Przyjęte dziedziny ZWZ i ZWS mają poprawne nazwy własne należące do Uniwersum, które nie są tożsame z Uniwersum, zatem te dziedziny są poprawne matematycznie i są to dziedziny użyteczne.
a)
Dziedzina ZWZ wskazuje nam, że interesuje nas wyłącznie zbiór wszystkich zwierząt, nic poza tą dziedziną nas nie interesuje, czyli pojęcia spoza dziedziny ZWZ są dla nas puste z definicji.
b)
Dziedzina ZWS mówi nam że operujemy na zbiorze wszystkich ssaków, nic poza tą dziedziną nas nie interesuje, czyli pojęcia spoza dziedziny ZWS są dla nas puste z definicji.

Przykład:
Twierdzenie proste Pitagorasa dla trójkątów prostokątnych:
A1.
Jeśli trójkąt jest prostokątny (TP) to na 100% => zachodzi w nim suma kwadratów (SK)
TP=>SK =1
W twierdzeniu Pitagorasa dziedziną użyteczną i minimalną jest:
ZWT - zbiór wszystkich trójkątów
Dziedzina ZWT wskazuje nam, że interesują nas wyłącznie trójkąty, nic poza tą dziedziną nas nie interesuje, czyli pojęcia spoza dziedziny ZWT są dla nas puste z definicji
Nikt nie będzie brał do ręki koła i sprawdzał czy zachodzi w nim suma kwadratów.

12.4 Definicja definicji

Definicja definicji:
W świecie człowieka (bo tylko on świadomie definiuje) definicja dowolnego pojęcia jest matematycznie poprawna wtedy i tylko wtedy jest jednoznaczna w Uniwersum człowieka.

Innymi słowy:
Definicja dowolnego pojęcia jest matematycznie poprawna wtedy i tylko wtedy gdy jest jedyna w całym obszarze Uniwersum.

Definicja Uniwersum:
Uniwersum to zbiór wszelkich pojęć zrozumiałych dla człowieka.
Czyli:
U = [pies, miłość, krasnoludek ...] - wyłącznie pojęcia rozumiane przez człowieka (zdefiniowane)

Przykład poprawnej definicji:
Pies to zwierzę domowe, szczekające.
P = ZD*S=1*1=1
To jest minimalna, jednoznaczna definicja psa rozumiana przez każdego 5-cio latka.
Oznacza to że pojęcia P oraz ZD*S są matematycznie tożsame P=ZD*S, czyli są w relacji równoważności P<=>ZD*S w całym obszarze Uniwersum

Przykład błędnej definicji z filmu „Rejs”:
[link widoczny dla zalogowanych]
Zwierzę domowe, hodowlane, występujące nad Wisłą - podać jego odgłos

Inny przykład:

Prawo Irbisa:
Dwa pojęcia/zbiory/zdarzenia p i q są tożsame p=q wtedy i tylko wtedy gdy znajdują się w relacji równoważności p<=>q (i odwrotnie)
p=q <=> A1B2: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1=1

Prawo Kubusia:
B1: p~>q = B2: ~p=>~q

Stąd mamy:
Tożsame prawo Irbisa:
Dwa pojęcia/zbiory/zdarzenia p i q są tożsame p=q wtedy i tylko wtedy gdy znajdują się w relacji równoważności p<=>q (i odwrotnie)
p=q <=> A1B2: p<=>q = (A1: p=>q)*(B2: ~p=>~q) =1*1=1

Podstawmy:
p=K (krasnoludek)
q=K (krasnoludek)
Przyjmijmy dziedzinę:
D=U (Uniwersum)
Obliczmy przeczenia p i q rozumiane jako uzupełnienia p i q do wspólnej dziedziny (u nas Uniwersum).
~p = ~K = [U-K] -zbiór wszystkich pojęć zrozumiałych dla człowieka minus jedno pojęcie "krasnoludek"
~q = ~K = [U-K] -zbiór wszystkich pojęć zrozumiałych dla człowieka minus jedno pojęcie "krasnoludek"

Definicja równoważności A1B2 generująca tabelę zero-jedynkową równoważności:
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B2: ~p=>~q=1 - zajście ~p jest (=1) wystarczające => dla zajścia ~q
stąd;
A1B2: p<=>q = (A1: p=>q)*(B2: ~p=>~q) =1*1=1

Zachodzi tożsamość pojęć:
Warunek wystarczający => = relacja podzbioru =>

Podstawmy nasz przykład:
A1B2: K<=>K = (A1: K=>K)*(B2: [U-K]=>[U-K]) =?
A1: K=>K =1 - bo każdy zbiór jest podzbiorem => siebie samego
B2: [U-K]=>[U-K] =1 - bo każdy zbiór jest podzbiorem => siebie samego
stąd mamy:
A1B2: K<=>K = (A1: K=>K)*(B2: [U-K]=>[U-K]) =1*1=1
cnd

12.4.1 Dowód iż każdy 5-cio latek zna definicję Uniwersum

Definicja Uniwersum:
Uniwersum to zbiór wszelkich pojęć zrozumiałych dla człowieka.

Dowód iż każdy 5-cio latek zna w praktyce definicję Uniwersum, niezależnie od swego języka ojczystego jest banalny.
Udajmy się do przedszkola.

Scenka 1.
Pani przedszkolanka wydaje polecenie:
Drogie dzieci narysujcie człowieka.
Pamięć człowieka (w tym pamięć 5-cio latków) jest pamięcią fotograficzną, czyli nasz mózg przywołuje w tym przypadku jakąś panią albo jakiegoś pana i na tej podstawie dzieci wykonują rysunek.
Tu każdy 5-co latek podświadomie rozstrzyga, że człowiekiem nie może być cokolwiek innego w całym obszarze Uniwersum, bo inaczej nie mógłby jednoznacznie rozstrzygnąć co ma narysować.
C =[C] (człowiek) - ten obiekt 5-cio latek rysuje
Zaprzeczenie pojęcia człowiek w obszarze U Uniwersum to:
~C = [U-C]=[zwierzę, krasnoludek, koło ..] - Uniwersum U z wykluczeniem pojęcia C (człowiek)
Matematycznie musi zachodzić:
C+~C =U
C*~C =[]
Inaczej 5-cio latek nie będzie wiedział co ma narysować
cnd

Scenka 2.
Pani przedszkolanka wydaje kolejne polecenie:
Drogie dzieci narysujcie swoją mamę
Pamięć człowieka (w tym pamięć 5-cio latków) jest pamięcią fotograficzną, czyli mózg 5-cio latka przywołuje w tym przypadku swoją mamę i na tej podstawie wykonuje rysunek.
Tu przykładowy Jaś (lat 5) podświadomie rozstrzyga, że mamę ma tylko i wyłącznie jedną i ją rysuje.
Zauważmy, że mama Jasia jest jedyną w całym obszarze Uniwersum, bo inaczej Jaś nie mógłby jednoznacznie narysować swojej mamy.
MJ =[MJ] - mama Jasia, tą mamę Jaś rysuje
Zaprzeczenie pojęcia mama Jasia w obszarze U Uniwersum to:
~MJ = [U-MJ] =[mama Zuzi, tata Jasia, zwierzę, krasnoludek, koło …] - Uniwersum U z wykluczeniem pojęcia mama Jasia MJ.
Matematycznie musi zachodzić:
MJ+~MJ =U
MJ*~MJ =[]
Inaczej 5-cio latek nie będzie wiedział co ma narysować
cnd

12.5 Warunek konieczny prawdziwości zdania warunkowego "Jeśli p to q"

Definicja wspólnej dziedziny w zdaniu warunkowym "Jeśli p to q":
Wspólna dziedzina D w zdaniu warunkowym "Jeśli p to q" musi zawierać wszystkie elementy zbioru p i wszystkie elementy zbioru q.
Inaczej zdanie "Jeśli p to q" jest fałszywe.

Stąd mamy:
1.
Definicja dziedziny D po stronie p:
p+~p = D =1 - zbiór ~p jest uzupełnieniem do wspólnej dziedziny D dla zbioru p
p*~p=[]=0 - zbiory p i ~p są rozłączne
Stąd mamy:
~p=[D-p] - zbiór ~p jest uzupełnieniem do wspólnej dziedziny D dla zbioru p
2.
Definicja dokładnie tej samej dziedziny D po stronie q:
q+~q = D =1 - zbiór ~q jest uzupełnieniem do wspólnej dziedziny D dla zbioru q
q*~q=[]=0 - zbiory q i ~q są rozłączne
Stąd mamy:
~q=[D-q] - zbiór ~q jest uzupełnieniem do wspólnej dziedziny D dla zbioru q

Warunek konieczny prawdziwości zdania warunkowego "Jeśli p to q"
Warunkiem koniecznym prawdziwości dowolnego zdania warunkowego "Jeśli p to q" jest wspólna dziedzina D dla p i q

Nie jest to warunek konieczny i wystarczający bo kontrprzykład:
A1'.
Jeśli dowolna liczba jest podzielna przez 8 (P8) to może ~~> nie być podzielna przez 2 (~P2)
P8~~>~P2 = P8*~P2 =[] =0
Wspólna dziedzina dla p i q to:
LN=[1,2,3,4,5,6,7,8,9..] - zbiór liczb naturalnych
Definicja elementu wspólnego zbiorów ~~> nie jest spełniona bo zbiory P8=[8,16,24..] i ~P2=[LN-P2]=[1,3,5,7,9..] są rozłączne.
Po stronie poprzednika p mamy tu:
p=LN=P8+~P8 =1 - LN to suma logiczna zbiorów P8=[8,16,24..] i ~P8=[1,2,3,4,5,6,7..9..]
Po stronie następnika q mamy tu identyczną dziedzinę:
q=LN=P2+~P2 =1 - LN to suma logiczna zbiorów P2=[2,4,6,8..] i ~P2=[1,3,5,7,9..]
Wniosek:
Definicja wspólnej dziedziny dla p i q jest spełniona, ale zdanie A1’ jest fałszem, bo zbiory P8=[8,16,24..] i ~P2=[1,3,5,7..] są rozłączne.

12.5.1 Zdanie "Jeśli p to q" ze spełnioną definicją wspólnej dziedziny

Definicja wspólnej dziedziny w zdaniu warunkowym "Jeśli p to q":
Wspólna dziedzina D w zdaniu warunkowym "Jeśli p to q" musi zawierać wszystkie elementy zbioru p i wszystkie elementy zbioru q.
Inaczej zdanie "Jeśli p to q" jest fałszywe.

Przykład zdania warunkowego "Jeśli p to q" mającego wspólną dziedzinę dla p i q:
A1.
Jeśli dowolna liczba jest podzielna przez 8 to na 100% => ta sama liczba jest podzielna przez 2
P8=>P2 =1
To samo w zapisie formalnym:
p=>q =1
Podzielność dowolnej liczby przez 8 (P8) jest warunkiem wystarczającym => dla jej podzielności przez 2 (P2) wtedy i tylko wtedy gdy zbiór P8=[8,16,24..] jest podzbiorem => zbioru P2=[2,4,6,8..]
Udowodnić iż zbiór P8 jest podzbiorem => P2 potrafi każdy matematyk
cnd

Po stronie poprzednika p mamy dziedzinę:
LN=[1,2,3,4,5,6,7,8,9..] – zbiór liczb naturalnych
LN=P8+~P8 =1 – zbiór ~P8 jest uzupełnieniem do dziedziny LN dla zbioru P8
P8*~P8=[]=0 – zbiory P8 i ~P8 są rozłączne
Po stronie następnika q mamy dokładnie ta samą dziedzinę:
LN=[1,2,3,4,5,6,7,8,9..] – zbiór liczb naturalnych
LN=P2+~P2 =1 – zbiór ~P2 jest uzupełnieniem do dziedziny LN dla zbioru P2
P2*~P2=[]=0 - zbiory P2 i ~P2 są rozłączne
Wniosek:
Wspólna dziedzina minimalna LN dla p i q w zdaniu A1 jest spełniona.

12.6 Zdania "Jeśli p to q" z niespełnioną definicją wspólnej dziedziny dla p i q

Warunek konieczny prawdziwości zdania warunkowego "Jeśli p to q"
Warunkiem koniecznym prawdziwości dowolnego zdania warunkowego "Jeśli p to q" jest wspólna dziedzina D dla p i q

Wniosek:
Zdania warunkowe Jeśli p to q” które nie spełniają warunku koniecznego prawdziwości zdania warunkowego „Jeśli p to q” są fałszywe
W dalszej części podamy przykłady takich zdań.

12.6.1 Zdanie "Jeśli p to q" z niespełnioną definicją wspólnej dziedziny dla p i q

Definicja wspólnej dziedziny w zdaniu warunkowym "Jeśli p to q":
Wspólna dziedzina D w zdaniu warunkowym "Jeśli p to q" musi zawierać wszystkie elementy zbioru p i wszystkie elementy zbioru q.
Inaczej zdanie "Jeśli p to q" jest fałszywe.

Przykład zdania warunkowego "Jeśli p to q" z niespełnioną definicją wspólnej dziedziny dla p i q:
A1.
Jeśli dowolna liczba naturalna jest podzielna przez 8 (P8) to zachodzi twierdzenie Pitagorasa (TP)
P8=>TP =0
Powyższe zdanie warunkowe jest fałszywe bo nie jest tu spełniona definicja wspólnej dziedziny dla p i q w zdaniu warunkowym „Jeśli p to q”.

Dowód:
1.
W obrębie poprzednika p mamy dziedzinę LN:
LN=[1,2,3,4,5,6,7,8,9..] – zbiór liczb naturalnych
LN=P8+~P8 =1
Zbiór ~P8=[1,2,3,4,5,6,7..9..] jest (=1) uzupełnieniem do dziedziny dla zbioru P8=[8,16,24..]
stąd mamy:
~P8=[LN-P8]=[1,2,3,4,5,6,7..9..] - zbiór liczb niepodzielnych przez 8
Matematycznie zachodzi:
P8*~P8=[]=0 – zbiory P8 i ~P8 są rozłączne

2.
W obrębie następnika q mamy dziedzinę:
ZWT – zbiór wszystkich trójkątów
ZWT=TP+~TP =1
Zbiór trójkątów nieprostokątnych ~TP jest uzupełnieniem do dziedziny ZWT dla zbioru trójkątów prostokątnych TP
Stąd mamy:
~TP=[ZWT-TP]
Matematycznie zachodzi:
TP*~TP=[] =0 – zbiory TP i ~TP są rozłączne

Wnioski:
1.
Dziedziny LN i ZWT są rozłączne:
LN~~>ZWT = LN*ZWT =[] =0
Oznacza to, że nie istnieje choćby jeden element zbioru LN który by należał do zbioru ZWT (i odwrotnie)
2.
Zdanie A1 jest fałszywe, bo nie jest spełniona definicja wspólnej dziedziny dla p i q.
cnd

12.6.2 Zdania "Jeśli p to q" gdzie p lub q jest zbiorem/zdarzeniem pustym

Zdania "Jeśli p to q" gdzie p lub q jest zbiorem/zdarzeniem pustym w języku potocznym nie są używane, bowiem nie możemy operować na zbiorze pustym [], z definicji zawierającym pojęcia niezrozumiałe dla człowieka.

Przykład 1
A1
Jeśli 2+2=5 to 2+2=4

Uwagi:
Logika matematyczna nie zajmuje się działaniami arytmetycznymi bo nie są to zdarzenia zero-jedynkowe, podlegające pod logikę matematyczną.
Logika matematyczna zajmuje się tylko i wyłącznie:
- rozpoznawalnością pojęć
- relacjami zero-jedynkowymi między pojęciami

Stąd zdanie A1 zapisujemy:
A1
Jeśli zbiór pusty [] to liczba 4
Gdzie:
[] - zbiór pusty lub zdarzenie niemożliwe

Definicja zbioru pustego []:
Zbiór pusty [] to zbiór zawierający zero pojęć zrozumiałych dla człowieka.

W poprzedniku p zdania A1 mamy tu zbiór pusty [] zawierający wszelkie pojęcia możliwe do zdefiniowania w naszym Wszechświecie, ale jeszcze niezdefiniowane, natomiast w następniku mamy liczbę 4, pojęcie już zdefiniowane w naszym Wszechświecie.
Oczywistym jest, że iloczyn logiczny poprzednika p=[] z następnikiem q=[4] będzie tu zbiorem pustym [], bo zbiory p=[] i q=[4] są zbiorami rozłącznymi.
Stąd nasze zdanie A1 jest twardym fałszem:
A1
Jeśli zbiór pusty [] to liczba 4
[]~~>[4] = []*[4] =[] =0 - twardy fałsz, bo zbiór pusty [] i jednoelementowy zbiór [4] są rozłączne

Przykład 2
B1.
Jeśli 2+2=4 to 2+2=5

Mamy tu sytuację identyczną jak w przykładzie 1, zatem wnioskowanie będzie tu identyczne
Innymi słowy:
Zdanie B1 możemy zapisać w postaci:
B1.
Jeśli liczba 4 to zbiór pusty []
[4]~~>[] = [4]*[] = [] =0 - twardy fałsz, bo jednoelementowy zbiór [4] i zbiór pusty [] są rozłączne

Wyjątkową sytuacją jest przypadek gdy w zdaniu warunkowym "Jeśli p to q" mamy zbiory puste (zdarzenia niemożliwe), zarówno w poprzedniku p jak i w następniku q

Przykład 3
C1.
Jeśli 2+2=5 to pójdę piechotą na Księżyc

W tym przypadku w poprzedniku p mamy zbiór pusty [], zaś w następniku q zdarzenie niemożliwe [].
Stąd zdanie tożsame do C1 możemy zapisać jako.
C1.
Jeśli zbiór pusty [] to zdarzenie niemożliwe []
[]=>[] =1
Przynależność dowolnego pojęcia do zbioru pustego [] jest (=1) warunkiem wystarczającym => do tego, aby to pojęcie należało do zbioru pustego []
Innymi słowy:
Każdy zbiór jest (=1) podzbiorem => siebie samego, także zbiór pusty []
Szczegółowy dowód tego faktu wraz ze szczegółowym wyjaśnieniem o co tu chodzi mamy w punkcie 12.9.3 (prawo Owieczki)

12.7 Zaprzeczenie zdania w algebrze Kubusia

Zaprzeczenie zdanie w algebrze Kubusia wynika z definicji kontrprzykładu

12.7.1 Definicje kontrprzykładu w zdarzeniach i zbiorach

1.
Definicja kontrprzykładu w zdarzeniach:

Kontrprzykładem dla warunku wystarczającego p=>q nazywamy to samo zdanie z zanegowanym następnikiem kodowane zdarzeniem możliwym p~~>~q=p*~q
Rozstrzygnięcia:
Prawdziwość warunku wystarczającego p=>q=1 wymusza fałszywość kontrprzykładu p~~>~q=p*~q=0 (i odwrotnie)
Fałszywość warunku wystarczającego p=>q=0 wymusza prawdziwość kontrprzykładu p~~>~q=p*~q=1
(i odwrotnie)

Przykład:
A1.
Jeśli jutro będzie padało (P) to na 100% => będzie pochmurno (CH)
P=>CH=1
Padanie jest warunkiem wystarczającym => dla istnienia chmur bo zawsze gdy pada, są chmury

Na mocy definicji kontrprzykładu prawdziwy warunek wystarczający A1: P=>CH=1 wymusza fałszywość kontrprzykładu A1' (i odwrotnie)
A1'
Jeśli jutro będzie padało (P) to może ~~> nie być pochmurno (~CH)
P~~>~CH = P*~CH=0
Dowód wprost:
Niemożliwe jest (=0) zdarzenie ~~>: pada (P) i nie jest pochmurno (~CH)
Dowód "nie wprost":
Na mocy definicji kontrprzykładu tego faktu nie musimy udowadniać, ale możemy, co wyżej uczyniliśmy.

Uwaga na standard w algebrze Kubusia:
Kontrprzykład dla warunku wystarczającego => A1 oznaczamy A1’

2.
Definicja kontrprzykładu w zbiorach:

Kontrprzykładem dla warunku wystarczającego p=>q nazywamy to samo zdanie z zanegowanym następnikiem kodowane elementem wspólnym zbiorów p~~>~q=p*~q
Rozstrzygnięcia:
Prawdziwość warunku wystarczającego p=>q=1 wmusza fałszywość kontrprzykładu p~~>~q=p*~q=0 (i odwrotnie)
Fałszywość warunku wystarczającego p=>q=0 wmusza prawdziwość kontrprzykładu p~~>~q=p*~q=1 (i odwrotnie)

Przykład:
A1.
Jeśli dowolna liczba jest podzielna przez 8 (P8) to na 100% => jest podzielna przez 2 (P2)
P8=>P2=1
Podzielność dowolnej liczby przez 8 jest warunkiem wystarczającym => dla jej podzielności przez 2, bo zbiór P8=[8,16,24..] jest podzbiorem => zbioru P2=[2,4,6,8…], co każdy matematyk udowodni.

Na mocy definicji kontrprzykładu, z prawdziwości warunku wystarczającego A1 wynika fałszywość kontrprzykładu A1’ (i odwrotnie)
A1’
Jeśli dowolna liczba jest podzielna przez 8 (P8) to może ~~> nie być podzielna przez 2 (~P2)
P8~~>~P2 = P8*~P2 =[] =0
Dowód wprost:
Nie istnieje (=0) wspólny element zbiorów P8=[8,16,24..] i ~P2=[1,3,5,7,9…] bo dowolny zbiór liczb parzystych jest rozłączny z dowolnym zbiorem liczb nieparzystych.
Dowód "nie wprost":
Na mocy definicji kontrprzykładu fałszywości zdania A1' nie musimy udowadniać, ale możemy, co zrobiono wyżej.

Uwaga na standard w algebrze Kubusia:
Kontrprzykład dla warunku wystarczającego => A1 oznaczamy A1’

12.7.2 Przykłady zaprzeczeń zdań w algebrze Kubusia

Definicja zaprzeczenia zdania w algebrze Kubusia:
Zaprzeczeniem zdania w algebrze Kubusia jest fałszywy kontrprzykład obowiązujący w zdaniach warunkowych i twierdzących

Na mocy definicji kontrprzykład jest nierozerwalnie związany ze zdaniem warunkowym „Jeśli p to q” ze spełnionym warunkiem wystarczającym =>

Prawo Mrówki:
Dowolne zdanie twierdzące prawdziwe to spełniony warunek wystarczający =>

Przykłady:
1.
Pies ma cztery łapy
P=>4L =1
2.
Ziemia krąży dookoła słońca
Z=>DS =1
3.
Trójkąt o bokach [3,4,5] jest prostokątny
T345=>TP =1
4.
Kopernik był mężczyzną
K=>M =1
5.
Kubuś Puchatek jest misiem
KP=>M =1


Przykład 1
A1.
Jeśli zwierzę jest psem (P) to ma cztery łapy (4L)
P=>4L =1
Bycie psem (P) jest warunkiem wystarczającym => by mieć cztery lapy (4L) bo zbiór P=[pies] jest podzbiorem => zbioru zwierząt z czterema łapami 4L=[pies, słoń, koń ..]
Innymi słowy:
Bycie psem jest (=1) warunkiem wystarczającym => by mieć cztery łapy bo każdy pies ma cztery łapy

Kontrprzykład dla A1 brzmi:
A1’.
Jeśli zwierzę jest psem (P) to może ~~> nie mieć czterech łap (~4L)
P~~>~4L = P*~4L =0
Nie może się zdarzyć (=0) że zwierzę jest psem (P) i nie ma czterech łap (~4L)

Wynikowe zero jest tu twardym zerem tzn. jest fizycznie niemożliwe ustawienie tu jedynki, bo psów z innymi łapami niż cztery, po prostu nie ma

Zdane twierdzące wynikłe ze zdania A1 to:
A1”
Pies ma cztery łapy
P=>4L =1
Zauważmy, że matematyczne kodowanie zdania A1” jest identyczne jak zdania A1.

Stąd zaprzeczenie zdania A1” to:
1: ~A1”
Nie może się zdarzyć (=0), że zwierzę jest psem (P) i nie ma czterech łap (~4L)
P~~>~4L = P*~4L =0

Zaprzeczenie zdania A1” można wypowiedzieć tak:
2: ~A1”
Pies nie ma czterech łap
P~~>~4L = P*~4L =0

Matematycznie zachodzi tożsamość zdań:
1: ~A1” = 2: ~A1”

Przykład 2

Ziemia krąży dookoła Słońca
Zdanie tożsame:
A2
Ziemia na 100% => krąży dookoła Słońca
kodowanie matematyczne:
Z=>DS =1
To samo w zapisie formalnym:
p=>q =1
Gdzie:
p=Z (Ziemia)
q=DS (dookoła Słońca)
Czytamy:
Bycie Ziemią (Z) jest (=1) warunkiem wystarczającym => by krążyła ona dookoła Słońca (DS)

Kontrprzykład dla A2 to:
A2’
Ziemia (Z) może ~~> nie krążyć dookoła Słońca (~DS.)
Z~~>~DS =Z*~DS =0
Nie może się zdarzyć ~~> (=0), że Ziemia nie krąży dookoła Słońca

Zaprzeczenia zdania A2 można wypowiedzieć tak:
Ziemia nie krąży dookoła Słońca
Z~~>~DS =Z*~DS =0
Fałszem jest (=0), że Ziemia krąży dookoła Słońca

Definicja warunku wystarczającego => w zbiorach:
p=>q=1
Zajście p jest warunkiem wystarczającym => dla zajścia q wtedy i tylko wtedy gdy zbiór p jest podzbiorem => zbioru q
Zachodzi tożsamość pojęć:
Warunek wystarczający => = Relacja podzbioru

Dowód czysto matematyczny, iż poprzednik p=Z jest podzbiorem następnika q=DS

Przyjmijmy dziedzinę:
ZWP - Zbiór wszystkich planet krążących dookoła naszego Słońca
ZWP=[Ziemia, Mars, Wenus..]
Oczywistym jest, że wszystkie te planety krążą dookoła naszego Słońca

Prawo Orła:
Rozstrzygające o relacji warunek wystarczający => albo warunek konieczny ~> między p i q zarówno w zdarzeniach, jak i w zbiorach:
p*(q+~q) (=>, ~>) q*(p+~p)

Wyprowadzenie prawa Orła:
W AK poprzednik p i następnik q muszą należeć do wspólnej dziedziny D, czyli:
p+~p = D =1
q+~q = D =1
p (=>, ~>) q
Prawo algebry Boole’a:
p*1 (=>, ~>) q*1
Stąd mamy wyprowadzone prawo Orła:
p*(q+~q) (=>, ~>) q*(p+~p)
cnd

Nasz przykład:

Prawo Orła:
Rozstrzygające o relacji między p i q zarówno w zdarzeniach, jak i w zbiorach:
p*(q+~q) => q*(p+~p)
p=Z
q=DS
Obliczamy ~Z:
~Z=[ZWP-Z]=[Mars, Wenus..] - wszystkie planety z wykluczeniem Ziemi

Stąd mamy:
Z*(DS+~DS) => DS*(Z+~Z)
Z*DS + Z*~DS => Z*DS + ~Z*DS
Z*~DS=0 - fałszem jest (=0), że Ziemia nie krąży dookoła Słońca
Stąd mamy:
Z*DS => Z*DS + ~Z*DS - relacja podzbioru => jest spełniona!

Doskonale widać, że relacja podzbioru => w zdarzeniach jest tu spełniona:
Z => DS =1
cnd

12.8 Definicje zbioru pustego

W logice matematycznej rozróżniamy trzy rodzaje zbioru pustego [].

12.8.1 Definicja zbioru pustego [] w sensie absolutnym

Definicja zbioru pustego [] w sensie absolutnym:
Zbiór pusty [] to zbiór zawierający zero pojęć zrozumiałych dla człowieka
Czyli:
[] = [agstd, sdked …] - wyłącznie pojęcia niezrozumiałe dla człowieka (jeszcze niezdefiniowane)

Zauważmy, że zbiór pusty [] będzie tu podzbiorem => siebie samego (wyjaśnienie w pkt. 12.9):
[]=>[] =1
0=>0 =1

12.8.2 Definicja zbioru pustego [] względem wybranej dziedziny

Definicja zbioru pustego [] względem wybranej dziedziny:
Zbiór pusty [] to wszelkie pojęcia poza wybraną dziedziną

Definicja dziedziny:
Dziedzina to dowolnie wybrany zbiór na którym operujemy

Przykład:
Twierdzenie proste Pitagorasa:
Jeśli trójkąt jest prostokątny to zachodzi w nim suma kwadratów
TP=>SK =1
Twierdzenie proste Pitagorasa ludzkość udowodniła wieki temu
Oczywista dziedzina na której operuje twierdzenie Pitagorasa to:
ZWT – zbiór wszystkich trójkątów
Zbiorem [] pustym będą tu wszelkie pojęcia z Uniwersum pomniejszone o zbiór wszystkich trójkątów
[] = [U-ZWT]
Przykładowe pojęcia puste [] ze względu na zbiór wszystkich trójkątów (ZWT) to:
[] = [kwadrat, koło, kula, pies, miłość, krasnoludek …]

Zauważmy, że zbiór pusty [] będzie tu podzbiorem => siebie samego:
[]=>[] =1
0=>0 =1

12.8.3 Definicja zbioru pustego [] będącego twardym fałszem

Definicja zbioru pustego [] będącego twardym fałszem:
Zbiór pusty [] to wszelkie twarde fałsze (=0) w otaczającym nas świecie.

Definicja twardego fałszu (=0):
Twardy fałsz (=0) to pojęcie które w dowolnym iterowaniu (losowaniu) nie ma prawa stać się prawdą (=1)

W logice matematycznej istnieją twarde jedynki i twarde zera jak również miękkie jedynki i miękkie zera. O co tu chodzi mamy wytłumaczone na przykładzie w punkcie 2.16.3 oraz 2.17.

Definicja kontrprzykładu w zbiorach (pkt. 2.3.4):
Kontrprzykładem dla warunku wystarczającego p=>q nazywamy to samo zdanie z zanegowanym następnikiem kodowane elementem wspólnym zbiorów p~~>~q=p*~q
Rozstrzygnięcia:
Prawdziwość warunku wystarczającego p=>q=1 wmusza fałszywość kontrprzykładu p~~>~q=p*~q=0 (i odwrotnie)
Fałszywość warunku wystarczającego p=>q=0 wmusza prawdziwość kontrprzykładu p~~>~q=p*~q=1 (i odwrotnie)

Przykłady twardej prawdy i twardego fałszu:
1.
Pies na cztery lapy
P=>4L =1 – twarda prawda (=1)
Bycie psem jest (=1) wystarczające => by mieć cztery łapy wtedy i tylko wtedy
gdy zbiór P=[pies] jest (=1) podzbiorem => zbioru zwierząt z czterema łapami 4L=[pies, słoń ..]
2.
Kontrprzykład dla 1 to:
Nie istnieje (=0) zwierzę będące psem i nie mające czterech łap
P~~>~4L=P*~4L=[] =0 – twardy fałsz (=0)
Zbiór P=[pies] i zbiór zwierząt bez czterech łap ~4L=[kura ..] to zbiory rozłączne (=[] =0)
3.
2+2=4 – twarda prawda (=1)
Prawdziwe jest (=1) działania 2+2=4
4.
2+2=5 =[] =0 – twardy fałsz
Fałszywe jest (=0) działanie 2+2=5
etc

Zauważmy, że twarde fałsze należą do Uniwersum bo potrafimy udowodnić iż są to twarde fałsze.

Definicja Uniwersum:
Uniwersum to zbiór wszelkich pojęć zrozumiałych dla człowieka.

Wszelkie pojęcia w Uniwersum wiąże ze sobą spójnik „lub”(+).
Stąd mamy:
U = [pies ma cztery łapy (=1) + pies nie ma czterech łap (=0) + miłość (=1) + krasnoludek (=1) ...]
- wyłącznie pojęcia rozumiane przez człowieka (zdefiniowane)

Zauważmy, że jeśli ze zbioru U (Uniwersum) usuniemy twarde fałsze (=0) to nic nie stracimy na jednoznaczności U (Uniwersum) bowiem wszelkie twarde fałsze (=0) wynikają z twardych prawd (=1) na mocy definicji kontrprzykładu.

Zajdzie więc tożsamość zbioru U (Uniwersum) z twardymi fałszami:
U = [pies ma cztery łapy (=1) + pies nie ma czterech łap (=0) + miłość (=1) + krasnoludek (=1) ...]
oraz zbioru U (Uniwersum) pomniejszonego o wszelkie twarde fałsze:
U = [pies ma cztery łapy (=1) + miłość (=1) + krasnoludek (=1) ...]

To samo w zapisie ogólnym możemy zapisać jako:
U-[] =U-0 = U
Czytamy:
Z dowolnego zbioru (w tym z Uniwersum) możemy usunąć twarde fałsze i zbiór nie zmieni się na mocy definicji spójnika „lub”(+).

Komentarz:
W logice matematycznej za psa przyjmujemy wzorzec psa, czyli psa zdrowego z czterema łapami.
Oczywiście wiemy, że pies kaleki z trzema łapami to też pies, ale tego przypadku nie wolno nam podpinać pod logikę matematyczną, bo będziemy mieli chaos, czyli brak warunku wystarczającego =>.

Dowód:
A1.
Jeśli zwierzę jest psem (P) to na 100% => ma cztery łapy (4L)
A1: P=>4L =0
Przyjmijmy za dziedzinę psa z czterema łapami plus psa kalekiego (z trzema łapami)
Wtedy mamy:
Warunek wystarczający A1: P=>4L nie jest (=0) spełniony, bo istnieje pies z trzema łapami

Podsumowując:
Nie wolno obalać logiki matematycznej przysłowiowym „psem z trzema łapami”

12.9 Uniwersum vs zbiór pusty [] w sensie absolutnym

Definicja Uniwersum:
Uniwersum to zbiór wszelkich pojęć zrozumiałych dla człowieka.
Czyli:
U = [pies, miłość, krasnoludek, pies ma cztery łapy ...] - wyłącznie pojęcia rozumiane przez człowieka (zdefiniowane)

Definicja zbioru pustego [] w sensie absolutnym:
Zbiór pusty [] to zbiór zawierający zero pojęć zrozumiałych dla człowieka
Czyli:
[] = [agstd, sdked …] - wyłącznie pojęcia niezrozumiałe dla człowieka (jeszcze niezdefiniowane)

Z definicji wiadomo, że wyłącznie człowiek (mimo że podobno pochodzi od małpy) jest zdolny do odkrywania i świadomego definiowania dowolnych pojęć związanych z otaczającym go światem.
Przed pojawieniem się pierwszego człowieka na ziemi mieliśmy zatem do czynienia ze zbiorem pustym [].

Aktualna wiedza o otaczającym nas Wszechświecie to wiedza dostępna wyłącznie człowiekowi z wykluczeniem wszelkich zwierząt.
Matematycznie zachodzi:
Człowiek ## Dowolne zwierzę
Gdzie:
## - różne na mocy definicji

Stąd mamy wyprowadzoną definicje zbioru pustego [] w sensie absolutnym, czyli przed pojawieniem się pierwszego człowieka na Ziemi (zaledwie 200tys lat temu)

Definicja zbioru pustego [] w sensie absolutnym:
Zbiór pusty [] w sensie absolutnym to zbiór zawierający zero pojęć zrozumiałych dla człowieka
Czyli:
[] = [agstd, sdked …] - wyłącznie pojęcia niezrozumiałe dla człowieka (jeszcze niezdefiniowane)

12.9.1 Definicja dziedziny absolutnej DA

Idąc dalej tropem zbioru pustego [] w sensie absolutnym łatwo zdefiniować nowatorskie pojęcie zwane dziedziną absolutną DA.

Definicja dziedziny absolutnej DA:
Dziedzina absolutna DA to zbiór wszelkich pojęć możliwych do zdefiniowania w naszym Wszechświecie.

Zauważmy, że największy współczesny wynalazek ludzkości, Internet, mógł zaistnieć tylko i wyłącznie dlatego, że na naszej Ziemi były ku temu warunki niezależne od człowieka, które istniały „od zawsze”.
Nie wiadomo jakimi jeszcze wynalazkami w przyszłości ludzkość zostanie zaskoczona, pewne jest, że zostanie zaskoczona wynalazkami tylko i wyłącznie możliwymi do zaistnienia w naszym Wszechświecie.

Ludzkość w tym zakresie nieustannie marzy, próbując zrealizować swoje marzenia.

Wiele z tych marzeń jest wątpliwej jakości.
Przykłady:
Faraonowie w grobowcach gromadzili niebotyczne skarby marząc o życiu w zaświatach gdzie będą ich potrzebować.
Średniowieczni alchemicy marzyli o zrobieniu złota z piasku bo to żółte i to żółte
etc

Przykłady zrealizowanych marzeń ludzkości o których największym ziemskim, średniowiecznym filozofom się nie śniło to:
- radio i telewizja
- prom kosmiczny
- Internet
etc

Jak widzimy, na bazie powyższych rozważań pojęcie dziedziny absolutnej DA jest pojęciem rzeczywistym, dziejącym się na naszych oczach, tu i teraz.
W żadnym przypadku pojęcie dziedziny absolutnej DA nie jest pojęciem abstrakcyjnym.

12.9.2 Definicja zbioru wszystkich zbiorów

Jak udowodniliśmy wyżej, kluczowe pojęcia Kubusiowej Teorii Zbiorów:
- Uniwersum (U)
- Zbiór pusty ([]) w sensie absolutnym
- Dziedzina absolutna (DA)
To pojęcia rzeczywiste, weryfikowalne w naszym Wszechświecie.
Stąd mamy łatwo wyprowadzoną definicję zbioru wszystkich zbiorów.

Zbiór wszystkich zbiorów:
Zbiór wszystkich zbiorów jest tożsamy z dziedziną absolutną DA.

12.9.3 Prawo Owieczki

Definicja Uniwersum:
Uniwersum U to zbiór wszelkich pojęć zrozumiałych dla człowieka.

Definicja zbioru pustego [] w sensie absolutnym:
Zbiór pusty [] to zbiór zawierający zero pojęć zrozumiałych dla człowieka.

Zbiór pusty zawiera nieskończenie wiele pojęć niezrozumiałych dla człowieka, jeszcze niezdefiniowanych. Definiować elementy w naszym Wszechświecie może wyłącznie człowiek, świat martwy sam sobie nic nie definiuje.

Przed pojawieniem się człowieka na ziemi zawartość zbioru pustego była taka:
[] - wszystkie elementy naszego Wszechświata w sensie absolutnym, nie ma jeszcze człowieka który by cokolwiek definiował.

W dniu dzisiejszym sytuacja jest inna, taka:
Kod:

T1
Algebra Kubusia:
-----------------------------------------------------------------
| Uniwersum U                 | Zbiór pusty []                  |
| Pojęcia przez człowieka już | Pojęcia jeszcze przez człowieka |
| zdefiniowane                | niezdefiniowane                 |
| Zrozumiałe dla człowieka    | Niezrozumiałe dla człowieka     |
| U=~[]                       | []=~U                           |
-----------------------------------------------------------------
|                 DA - dziedzina absolutna                      |
-----------------------------------------------------------------

Na mocy powyższego zachodzi:
U = ~[] - zbiór Uniwersum U to zaprzeczenie zbioru pustego [] w dziedzinie absolutnej DA
[] = ~U - zbiór pusty [] to zaprzeczenie Uniwersum U w dziedzinie absolutnej DA

Na mocy definicji dziedziny absolutnej DA mamy:
1: U+~U = U+[] =U =1
2: U*~U = U*[] =[] =0
Komentarz:
1.
Do zbioru Uniwersum (pojęcia zrozumiałe dla człowieka) możemy dodać elementy ze zbioru ~U (pojęcia niezrozumiałe dla człowieka np. kgstl), ale na mocy definicji Uniwersum wszelkie takie elementy musimy natychmiast usunąć, inaczej gwałcimy definicję Uniwersum.
2.
U*~U=[] =0
Iloczyn logiczny elementów ze zbioru U (pojęcia zrozumiałe dla człowieka) i ~U (pojęcia niezrozumiałe dla człowieka) jest zbiorem pustym tzn. nie ma ani jednego elementu wspólnego w zbiorach U i ~U=[].

Prawo Owieczki:
Prawdziwe jest zdanie ziemskich matematyków iż „ze zbioru pustego [] wynika wszystko” wtedy i tylko wtedy gdy definicje zbioru pustego [] i Uniwersum U będą zgodne z definicjami obowiązującymi w algebrze Kubusia.

12.10 Jak wynalazłem niebieską diodę i zmieniłem świat

Doskonałą ilustracją do definicji podstawowych będzie historia wynalezienia niebieskiej diody LED.
Diodę świecącą LED wynaleziono w 1962r (Nick Holonyak Jr.). Pierwsza dioda LED, przypominająca nam tę współczesną, to żółta dioda wynaleziona w 1972 r., dająca znacznie mocniejsze światło.
Dioda niebieska jest kluczowa dla sygnału RGB (kolorowa TV), więc największe laboratoria świata wszystkie swoje siły skierowały na opracowanie tej diody. Przez około 20 lat wszystko dreptało w miejscu, czyli zero efektów mimo zaangażowania ogromnych sił i środków.
I nagle, w 1993 roku zabłysnął nikomu nieznany Japończyk Shuji Nakamura któremu udało się znaleźć doskonałą, niebiską diodę LED w grupie pierwiastków gdzie nikt się tego nie spodziewał i nie szukał.
Najważniejszym pokłosiem odkrycia Shuji Nakamury jest fakt, że nagle, z dnia na dzień, jasność wszystkich podstawowych diod LED dla sygnału RGB (czerwona, zielona, niebieska) skoczyła 1000-krotnie. Dokładnie dlatego na dzień dzisiejszy żarówki LED praktycznie wyeliminowały tradycyjne żarówki i świetlówki z naszego świata. Żarówka LED jest dwadzieścia razy oszczędniejsza w zużyciu energii i pracuje 50tys godzin a nie jak zwykła żarówka 1000 godzin.

To jest bardzo dobra ilustracja poprawności definicji zbioru pustego podanej wyżej.

Definicja zbioru pustego []:
Zbiór pusty [] to zbiór zawierający zero pojęć zrozumiałych dla człowieka.

Zbiór pusty zawiera nieskończenie wiele pojęć niezrozumiałych dla człowieka, jeszcze niezdefiniowanych. Definiować elementy w naszym Wszechświecie może wyłącznie człowiek, świat martwy sam sobie nic nie definiuje.

Prawo Owieczki:
Prawdziwe jest zdanie ziemskich matematyków iż „ze zbioru pustego [] wynika wszystko” wtedy i tylko wtedy gdy definicje zbioru pustego [] i Uniwersum U będą zgodne z definicjami obowiązującymi w algebrze Kubusia.

Gazeta Wyborcza: 24.05.2017
Jak wynalazłem niebieską diodę i zmieniłem świat
[link widoczny dla zalogowanych]

Na naszych oczach dokonuje się rewolucja w oświetleniu. Tradycyjne żarówki i świetlówki są zastępowane przez półprzewodnikowe źródła światła, popularnie zwane LED-ami (ang. LED - light-emitting diode, czyli świecące diody). Jeden z twórców tego przełomu – japoński fizyk prof. Shuji Nakamura -– otrzymał właśnie doktorat honoris causa Uniwersytetu Warszawskiego. "Prometeusz wykradł ogień z Olimpu i przekazał go ludzkości. Nakamura dał nam nowe wydajne źródło światła" – mówił w laudacji prof. Roman Stępniewski.

Rozmowa z

Prof. Shuji Nakamurą,
noblistą z fizyki, profesorem inżynierii na Uniwersytecie Kalifornijskim w Santa Barbara

Piotr Cieśliński: Nobel pana zaskoczył?

– Od 1993 r., w którym wynalazłem niebieską diodę, japońskie media ustawiały się pod moim domem w dniu ogłaszania laureatów Nagrody Nobla. Dziennikarze musieli jednak uzbroić się w cierpliwość, bo Nobla dostałem dopiero 20 lat później. Ale nie byłem nim zdziwiony.

W 1993 r. był pan inżynierem w małej i nieznanej firmie Nichia.

– Pracowałem w osamotnieniu, nie współpracowałem z uczelniami i naukowcami, długo nie publikowałem, nie miałem nawet doktoratu. Dlatego z początku nikt nie wierzył, że zrobiliśmy niebieskie LED-y. Nichia musiała urządzić pokazy w Tokio i Osace i dopiero wtedy się rozniosło: "Wielkie nieba, udało im się!".

Skąd pomysł, aby stworzyć niebieską diodę?

– Gdy przyszedłem do Nichii, mój bezpośredni przełożony kazał mi opracować czerwone LED-y. Takie diody wynaleziono jeszcze w latach 50. i w tym czasie już od dawna były w sprzedaży. Zacząłem od przeczytania całej literatury naukowej na ten temat. Niemal każda praca kończyła się wzmianką, że rewolucją byłoby stworzenie niebieskich LED-ów. Można by wtedy zrobić kolorowe ekrany i wyświetlacze, a także białe półprzewodnikowe źródła światła, kilkadziesiąt razy bardziej energooszczędne niż tradycyjne żarówki.

Ale gdy sugerowałem, że może lepiej zająć się niebieskimi diodami, szef uznał, że zwariowałem lub jestem bezczelnym smarkaczem
Niesłychane – przychodzi z małego i słabego uniwersytetu i chce robić to, nad czym głowią się największe mózgi w laboratoriach największych światowych potentatów, takich jak Sony, Toshiba czy Philips, z wielokrotnie większym budżetem na badania. „Nakamura, postradałeś rozum!” – słyszałem.

Co było dalej?
– Tak jak chciał szef, opracowałem technologię wytwarzania czerwonych LED-ów, ale biznesowo to była klapa. Nichia nic na tym nie zarobiła. Nasze czerwone diody się nie sprzedawały. Nic dziwnego. Firma była znana z chemii, a nie z elektroniki. Trudno było wejść na rynek, który podzieliły między siebie wielkie i znane marki. Szef stwierdził, że zmarnowałem mnóstwo pieniędzy i w zasadzie nie jestem już potrzebny. Na szczęście sędziwy Nobuo Ogawa zgodził się, abym zajął się niebieskimi diodami.

Jak to?

– 80-letni właściciel firmy zawsze był w biurze i miał otwarte drzwi dla młodych pracowników. Byłem zdesperowany, poszedłem do niego i spytałem, czy mogę pracować nad niebieskimi LED-ami? Ku mojemu zdumieniu powiedział, że tak. Dał mi na to 5 mln dol.! A to sporo, jak na tak małą firmę.

Ale czemu zaufał młodemu inżynierowi bez doktoratu?

– Przed moim przyjściem dział badań i rozwoju Nichii nie stworzył żadnego nowego produktu, a ja opracowałem trzy w ledwie pięć lat. Co prawda nie przyniosły zysku, wręcz przeciwnie, ale Ogawa mnie cenił. Miałem 35 lat i nigdy nie byłem za granicą, więc idąc za ciosem, zapytałem go, czy sfinansuje mi także staż w USA.

I co odpowiedział?

– Że OK. Na Uniwersytecie Florydy przez rok uczyłem się techniki MOCVD osadzania cienkich warstw materiału, która mi była potrzebna do tworzenia niebieskich LED-ów. Świecące diody robi się jak kanapki, układając na sobie kolejne warstwy atomów, każdą odpowiednio doprawiając. Wróciłem do Nichii w 1989 r. i wziąłem się do roboty. Szczerze mówiąc, nie sądziłem, że się uda. Moim celem był doktorat.

Doktorat?

– Na Florydzie przekonałem się, że jeśli nie masz doktoratu, to będą cię traktowali jak technika i pomocnika, a nie uczonego. W Japonii do doktoratu trzeba opublikować pięć prac naukowych.

Za najlepszy materiał na niebieskie diody wszyscy uważali wtedy selenek cynku – więc ten półprzewodnik był już wszechstronnie przebadany, na jego temat ukazały się setki prac. Doszedłem do wniosku, że łatwiej opublikuję nowe wyniki na temat azotku galu (GaN).
Nikt na niego nie stawiał i mało kto się nim zajmował

Miał pan cholerne szczęście.

– W nauce szczęście to podstawa.

W ciągu ledwie trzech lat zbudował pan diodę z azotku galu, która zaświeciła na niebiesko.

– Nichia nie miała żadnego doświadczenia w technologiach LED i gdy wcześniej tworzyłem diody czerwone, wszystko musiałem zbudować od podstaw. Reaktory do wzrostu warstw były mojej własnoręcznej roboty. Stałem się ekspertem. A niebieskie diody w gruncie rzeczy robi się podobnie – tyle że z innego materiału i stosując podobną metodę kładzenia atomowych warstw, tj. technologię MOCVD.

Początkowo nic nie wychodziło, warstwy nie chciały rosnąć. Zacząłem więc modyfikować reaktor. Każdego ranka zaglądałem do środka, zmieniałem parametry, a wieczorem sprawdzałem efekt. I tak przez półtora roku. Aż zrobiłem modyfikację, która dawała genialne efekty. Co kilka miesięcy dokonywałem przełomu i biłem światowe rekordy. Ta technologia nazywa się teraz two-flow MOCVD.

To dzięki niej w 1993 r. stworzyłem niebieską diodę, a Nichia wciąż produkuje i sprzedaje najbardziej efektywne niebieskie diody na świecie.


12.10.1 Geneza wszelkich okryć w naszym Wszechświecie

Zauważmy, że jak mówi o tym Shuji Nakamura do odkrycia niebieskiej diody LED doszło przez przypadek, że w nauce szczęście to podstawa.

W sumie dopóki niebieskiej diody LED nie odkryto mieliśmy co czynienia z implikacją, czyli z sumą logiczną przesłanek naukowców które powinny doprowadzić do odkrycia niebieskiej diody LED, ale póki co, nie doprowadziły do tego odkrycia.
1.
Naukowcy całego świata mieli przesłanki prowadzące do odkrycia niebieskiej LED na bazie selenku cynku
SC1+SC2 … + SCn ~> niebieska dioda LED
Spełnienie przesłanek SC1+SC2+..+ SCn jest warunkiem koniecznym ~> dla odkrycia niebieskiej diody LED.
Dopóki niebieska dioda LED nie zaświeciła powyższe przesłanki były konieczne ~>, ale nie wystarczające => do odkrycia niebieskiej diody LED.

… no i stało się?
Z powyższego myślenia praktycznie wszystkich naukowców wyłamał się absolwent małego Uniwersytetu Japońskiego pragnący zrobić doktorat, czyli napisać coś w oparciu o fundamentalnie inne przesłanki.

2.
Shuji Nakamura zaczął szukać niebieskiej diody LED tam gdzie nikt się nie spodziewał, na bazie azotku galu
AG1+AG2+… AGn-1 ~> niebieska dioda LED
Spełnienie przesłanek AG1+AG2+… AGn-1 jest warunkiem koniecznym ~> dla odkrycia niebieskiej diody LED

Kluczową sprawą jest tu odkrycie ostatniej przesłanki AGn prowadzącej do odkrycia niebeskiej diody LED
AG1+AG2 .. +AGn-1 + AGn <=> NLED (niebieska dioda LED)

Zauważmy, że dopiero po sukcesie Shuji Nakamury, czyli gdy niebieska dioda LED stała się faktem, możemy w jego przypadku postawić znak równoważności <=> co oznacza, że osiągnięto zamierzony cel:
AG1-AGn <=> NLED
Suma logiczna przesłanek AG1-AGn jest konieczna ~> (B1) i wystarczająca=> (A1) do odkrycia niebieskiej diody LED.

Jest to zgodne z formalną definicją równoważności p<=>q znaną każdemu człowiekowi (nie tylko matematykom).

Dowód:
Kod:

T0
Fundament algebry Kubusia w obsłudze zdań warunkowych „Jeśli p to q”
Matematyczne związki warunku wystarczającego => i koniecznego ~>:
      A1B1:     A2B2:  |     A3B3:     A4B4:
A: 1: p=>q = 2:~p~>~q [=] 3: q~>p = 4:~q=>~p [=] 5: ~p+q
      ##        ##           ##        ##            ##
B: 1: p~>q = 2:~p=>~q [=] 3: q=>p = 4:~q~>~p [=] 5:  p+~q

Prawa Kubusia:        | Prawa kontrapozycji dla warunku wystarczającego =>:
A1: p=>q = A2:~p~>~q  | A1: p=>q  = A4:~q=>~p
B1: p~>q = B2:~p=>~q  | B2:~p=>~q = B3: q=>p

Prawa Tygryska:       | Prawa kontrapozycji dla warunku koniecznego ~>:
A1: p=>q = A3: q~>p   | A2:~p~>~q = A3: q~>p
B1: p~>q = B3: q=>p   | B1: p~>q  = B4:~q~>~p
Gdzie:
p=>q = ~p+q - definicja warunku wystarczającego =>
p~>q = p+~q - definicja warunku koniecznego ~>
## - różne na mocy definicji warunku wystarczającego => i koniecznego ~>
p i q muszą być wszędzie tymi samymi p i q inaczej błąd podstawienia

Podstawowa definicja równoważności p<=>q:
Równoważność p<=>q to jednoczesne spełnienie warunku koniecznego ~> (B1) i wystarczającego => (A1) między tymi samymi punktami i w tym samym kierunku
A1: p=>q =1 - zajście p jest (=1) wystarczające => dla zajścia q
B1: p~>q =1 - zajście p jest (=1) konieczne ~> dla zajścia q
Stąd:
A1B1: p<=>q = (A1: p=>q)*(B1: p~>q) =1*1 =1
Prawą stronę czytamy:
Zajście p jest konieczne ~> (B1) i wystarczające => (A1) dla zajścia q
Innymi słowy:
Zajście p jest warunkiem koniecznym ~> (B1) i wystarczającym => (A1) do tego, by zaszło q
Innymi słowy:
Do tego aby zaszło q potrzeba ~> (B1) i wystarcza => (A1) by zaszło p

Dowód iż tą wersję równoważności znają wszyscy (nie tylko matematycy).
Klikamy na googlach:
"konieczne i wystarczające"
Wyników: 11 700
Klikamy na googlach:
"koniecznym i wystarczającym"
Wyników: 12 500
Klikamy na googlach:
"potrzeba i wystarcza"
Wyników: 3 110
cnd

Nasz przykład:
p=AG1-AGn (suma logiczna przesłanek AG1 do AGn konieczna ~> i wystarczająca => do odkrycia NLED
q=NLED (jest niebieska dioda LED)
Stąd mamy:
A1: AG1-AGn => NLED - przesłanki AG1-AGn są wystarczające => dla odkrycia niebieskiej LED (NLED)
B1: AG1-AGn ~> NLED - przesłanki AG1-AGn są konieczne ~> dla odkrycia niebieskiej LED (NLED)
stąd mamy:
A1B1: AG1-AGn <=> NLED = (A1: AG1-AGn => NLED)*(B1: AG1-AGn ~> NLED) =1*1=1
Prawą stronę czytamy:
Suma logiczna przesłanek AG1-AGn jest konieczna ~> (B1) i wystarczająca=> (A1) do odkrycia niebieskiej diody LED (NLED)
Innymi słowy:
Przesłanki AG1-AGn są warunkiem koniecznym ~> (B1) i wystarczającym => (A1) do odkrycia niebieskiej diody LED (NLED)
Innymi słowy:
Do odkrycia niebieskiej diody LED (NLED) są potrzebne ~> (B1) i wystarczające => (A1) przesłanki AG1-AGn

Podsumowując:
1.
Naukowcy zawsze wyznaczają sobie cel okrycia, tu odkrycie niebieskiej diody LED po czym wszelkimi możliwymi sposobami dążą do tego odkrycia - tu akurat osiągnięto sukces przez przypadek co opisuje artykuł w poprzednim punkcie.
2.
Podobny cel gdzie zanotowano sukces to odkrycie technologii tworzenia sztucznych diamentów.
3.
Przykład negatywny to średniowieczni alchemicy poszukujący technologii zrobienia złota z piasku - bo i to żółte, i to żółte.


Ostatnio zmieniony przez rafal3006 dnia Nie 11:50, 13 Paź 2024, w całości zmieniany 11 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 35257
Przeczytał: 24 tematy

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Wto 8:33, 17 Wrz 2024    Temat postu:

...

Ostatnio zmieniony przez rafal3006 dnia Czw 6:20, 19 Wrz 2024, w całości zmieniany 1 raz
Powrót do góry
Zobacz profil autora
Wyświetl posty z ostatnich:   
Napisz nowy temat   Ten temat jest zablokowany bez możliwości zmiany postów lub pisania odpowiedzi    Forum ŚFiNiA Strona Główna -> Metodologia / Forum Kubusia Wszystkie czasy w strefie CET (Europa)
Strona 1 z 1

 
Skocz do:  
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach

fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
Regulamin