Gwałtowny wzrost mocy obliczeniowej, obserwowany w ciągu ostatnich 60 lat, może wkrótce zostać zatrzymany. Złożone systemy, takie jak te stosowane na przykład w prognozach pogody, wymagają dużych mocy obliczeniowych, ale koszty eksploatacji superkomputerów do przetwarzania dużych ilości danych mogą stać się czynnikiem ograniczającym. Naukowcy z Johannes Gutenberg University Mainz (JGU) w Niemczech i Università della Svizzera italiana (USI) w Lugano w Szwajcarii ujawnili niedawno algorytm, który może rozwiązywać złożone problemy z niezwykłym urządzeniem - nawet na komputerze osobistym.

Gwałtowny wzrost w dziedzinie IT osiągnie swój limit

W przeszłości widzieliśmy stałe tempo przyspieszania mocy przetwarzania informacji przewidziane przez prawo Moore'a, ale teraz wygląda na to, że to wykładnicze tempo wzrostu jest ograniczone. Nowe osiągnięcia opierają się na sztucznej inteligencji i uczeniu się maszynowym, ale związane z tym procesy w dużej mierze nie są znane i rozumiane. "Wiele metod uczenia maszynowego, takich jak bardzo popularne uczenie się głębokie, jest bardzo skutecznych, ale działa jak czarna skrzynka, co oznacza, że nie wiemy dokładnie, co się dzieje. Chcieliśmy zrozumieć, jak działa sztuczna inteligencja i lepiej zrozumieć związane z tym powiązania", powiedziała profesor Susanne Gerber, specjalistka w dziedzinie bioinformatyki na Uniwersytecie w Moguncji. Wspólnie z profesor Illią Horenko, ekspertem komputerowym z Università della Svizzera italiana i Mercator Fellow z Freie Universität Berlin, opracowała technikę przeprowadzania niewiarygodnie skomplikowanych obliczeń przy niskich kosztach i wysokiej niezawodności. Gerber i Horenko, wraz ze swoimi współautorami, podsumowali swoją koncepcję w artykule zatytułowanym "Low-cost scalable discretization, prediction, and feature selection for complex systems" niedawno opublikowanym w Science Advances. "Ta metoda pozwala nam na wykonywanie zadań na standardowym komputerze, który wcześniej wymagałby superkomputera" - podkreślił Horenko. Oprócz prognoz pogody, badania widzą wiele możliwych zastosowań, takich jak rozwiązywanie problemów klasyfikacyjnych w bioinformatyce, analizie obrazu i diagnostyce medycznej.

Rozbicie złożonych systemów na poszczególne komponenty

Przedstawiona praca jest wynikiem wielu lat pracy nad rozwojem tego nowego podejścia. Według Gerbera i Horenko, proces ten opiera się na zasadzie Lego, zgodnie z którą złożone układy są rozkładane na dyskretne stany lub wzory. Przy pomocy zaledwie kilku wzorców lub komponentów, tj. trzech lub czterech dziesiątek, można analizować duże ilości danych i przewidywać ich przyszłe zachowanie. "Na przykład, korzystając z algorytmu SPA mogliśmy sporządzić opartą na danych prognozę temperatury powierzchni w Europie na następny dzień, a błąd przewidywania wynosi tylko 0,75 stopnia Celsjusza", powiedział Gerber. Wszystko to działa na zwykłym komputerze PC i ma poziom błędu o 40 procent lepszy niż systemy komputerowe używane zwykle przez służby pogodowe, a jednocześnie jest znacznie tańsze.

SPA lub skalowalne przybliżenie probabilistyczne jest pojęciem matematycznym. Metoda ta może być przydatna w różnych sytuacjach, które wymagają automatycznego przetwarzania dużych ilości danych, np. w biologii, gdy trzeba sklasyfikować i pogrupować dużą liczbę komórek. "Co jest szczególnie przydatne w wyniku, to to, że możemy wtedy zrozumieć, jakie cechy zostały użyte do sortowania komórek", dodał Gerber. Kolejnym potencjalnym obszarem zastosowania jest neurobiologia. Zautomatyzowana analiza sygnałów EEG może stanowić podstawę do oceny stanu mózgu. Mogłaby ona być nawet wykorzystywana w diagnostyce raka piersi, ponieważ obrazy mammograficzne mogłyby być analizowane w celu przewidzenia wyników ewentualnej biopsji.

"Algorytm SPA może być stosowany w wielu dziedzinach, od modelu Lorenza do dynamiki molekularnej aminokwasów w wodzie", podsumował Horenko. "Proces ten jest łatwiejszy i tańszy, a jego wyniki są również lepsze w porównaniu z wynikami uzyskiwanymi przy użyciu najnowocześniejszych superkomputerów".