Moim zdaniem z głupia frant uderzasz w samą matematykę, w której raczej prawdziwe jest twierdzenie, że abstrakcyjne założenia okazują się świetnie nadawać do liczenia konkretnych problemów. Tak było np. z abstrakcyjnie założonymi, na zasadzie "a co by było, jakbyśmy tutaj założyli, że to daje tamto i wychodzi to" liczbami zespolonymi, które jako jedyne dają możliwość w miarę szybkiego liczenia prądów zmiennych, tak było z abstrakcyjnie założonymi składowymi symetrycznymi, które dają możliwość liczenia prądów niesymetrycznych. Żaden szanujący się matematyk nie udowadnia równań, twierdzeń, definicji i założeń w ten sposób, że ktoś mądry tak powiedział i już, więc jeśli chcesz się dalej poznęcać nad tą twoją tezą, że właśnie tak jest, to daj sobie spokój, gdyż może tak być w wypadku nauczycieli szkół średnich, sporej części wykładowców akademickich, ale na pewno nie tych ludzi, którzy są matematykami naukowymi i swoją wiedzę z tej dziedziny opierają na zrozumieniu. Podobną głupotę mówisz z chrześcijanami, dodatkowo przedstawiając swoje zdanie nie jako żartobliwy obrazek, a jako wyrosłą z frustracji do potęgi zerowej tezę rozpaczliwie próbującą znaleźć analogię. Akurat znalazłeś głupią analogię.
Jak więc NIC pomnożone przez NIC ma dać cokolwiek innego niż NIC? Wynik takiego potęgowania zależy od ludzkiego założenia, a nie od stanu rzeczy - zgodnie z prawami matematyki może być tylko:
a.) równy 1
Nie, zgodnie z prawami matematyki zero do zerowej to nie jest jeden, o czym pisałem już wcześniej, a z łaski swojej mógłbyś sobie znaleźć o symbolu nieoznaczonym informacje i wiedzieć stąd, że
To też wydaje mi się nielogiczne, bo jeśli mam całego wafla i pragnę go podzielić przez nic, to nadal mam tego wafla
To bardzo głupi wniosek, przeczy prawom logiki. Bo jeśli coś podzielisz na jedną część, czyli właściwie tego nie podzielisz, to dalej to masz. Jeśli byś próbował dzielić przez zero, czyli nic, to nie znaczy, że dalej byś to miał, tylko że wynik abstrakcyjnie uciekałby w nieskończoność. Tak samo dzieląc przez nieskończoność wynik abstrakcyjnie ucieka w zero. Oczywiście oba te działania są niepoprawne, bo wynik nie jest określony.
oraz że
No a zero dzielone przez zero to już w ogóle zdanie-tabu, bo wynika z niekonsekwencji matematycznych założeń, bo:
a.) jeżeli 2x4=8, to 8:4=2
b.) jeżeli 4x2=8, to 8:2=4
c.) jeżeli 0x0=0, to 0:0=0
Jest również głupim wnioskiem, bo zero dzielone przez zero to też symbol nieoznaczony, tak samo jak nieskończoność przez nieskończoność. W zależności od tego z której strony liczba n dąży do zera, otrzymuje się w wyniku końcowym albo plus, albo minus nieskończoność, oczywiście mówiąc o granicach ciągów.
Z definicji liczb naturalnych ZERO jest najmniejszą liczbą naturalną.
Zgodnie z definicją liczby naturalne do całkowite dodatnie lub całkowite nieujemne. Czyli albo nie mają zera, albo mają
Liczby naturalne dają się mnożyć przez siebie (przez siebie same i przez siebie wzajemnie) - dają się też dzielić, bo dzielenie jest odwrotnością mnożenia. No dlaczego tak jest?!!
Każde liczby da się przez siebie mnożyć i każdą liczbę da się podzielić, natomiast nie przez każdą liczbę można dzielić, żeby wyszło z tego coś sensownego.
Czemu Pluton z biegiem lat został zdegradowany do stopnia nie-planety, Ziemia przestała być płaska, kobieta okazała się zdolną do pracy, a matematyczne mózgownice wciąż iskrzą przy działaniach na wartości zerowej? Czy nie lepiej by było zrobić jakiś apdejt prawda matematycznego, który w swoich fundamentach posiada takie byki? Ludzkim prawem jest błądzić - tym bardziej, że jest to system stworzony, a nie odkryty przez człowieka, więc ma prawo być niedoskonały - ale chyba błądzi się po to, żeby odnaleźć w końcu drogę?
Jaki miałby to być apdejt niby? Taki, żebyś dzieląc wafla przez zero uzyskiwał wafla, co byłoby nie tylko sprzeczne z jakimkolwiek logicznym prawem, ale i z dobrym samopoczuciem dzielących?