Aby stworzyć system sztucznej inteligencji, któremu ludzie będą mogli powierzyć odpowiedzialność za życie lub śmierć, maszyny będą musiały rozwinąć bardzo ludzką cechę: Przyznawania się do błędów.
Systemy AI mogą się mylić i nie przyznawać do tego
Tara Haelle
5 kwietnia 2022 r. C Systemy sztucznej inteligencji są tworzone, aby pomagać w diagnozowaniu chorób, ale zanim będziemy mogli powierzyć im obowiązki związane z życiem i śmiercią, AI będą musiały rozwinąć bardzo ludzką cechę: przyznawania się do błędów.
A prawda jest taka, że jeszcze tego nie potrafią.
Według naukowców z Uniwersytetu w Cambridge i Uniwersytetu w Oslo, obecnie SI częściej potrafi udzielić poprawnej odpowiedzi na problem, niż uświadomić sobie, że popełniła błąd.
Ta fundamentalna wada, jak donoszą, ma swoje źródło w problemie matematycznym.
Niektórych twierdzeń matematycznych nie da się udowodnić jako prawdziwe lub fałszywe. Na przykład ta sama matematyka, której większość z nas uczyła się w szkole, aby znaleźć odpowiedzi na proste i trudne pytania, nie może być użyta do udowodnienia naszej konsekwencji w jej stosowaniu.
Być może udzieliliśmy poprawnej odpowiedzi, a być może nie, ale musieliśmy sprawdzić naszą pracę. Jest to coś, czego algorytmy komputerowe w większości nie potrafią.
Paradoks matematyczny, który matematycy Alan Turing i Kurt G?del zidentyfikowali po raz pierwszy na początku XX wieku, polega na tym, że niektórych problemów matematycznych nie da się udowodnić.
Matematyk Stephen Smale wymienił tę fundamentalną wadę sztucznej inteligencji wśród 18 nierozwiązanych problemów matematycznych na świecie.
Opierając się na paradoksie matematycznym, badacze pod kierownictwem dr Matthew Colbrooka z Wydziału Matematyki Stosowanej i Fizyki Teoretycznej Uniwersytetu w Cambridge zaproponowali nowy sposób kategoryzacji obszarów problemowych AI.
W czasopiśmie Proceedings of the National Academy of Sciences naukowcy opisują sytuacje, w których sieci neuronowe sztucznej inteligencji, wzorowane na sieci neuronów ludzkiego mózgu, mogą być trenowane w celu uzyskiwania bardziej wiarygodnych wyników.
Jest to ważna, wczesna praca potrzebna do stworzenia inteligentniejszych i bezpieczniejszych systemów AI.