X

10 faktów dotyczących sztucznej inteligencji, uczenia maszynowego, big data, o których powinieneś wiedzieć

Sztuczna inteligencja (artificial intelligence – AI) to hasło klucz. W ostatnimi czasy niezwykle uwielbiane przez media zajmujące się tematyką biznesową i technologiczną. A jak jest już mowa o sztucznej inteligencji, to zazwyczaj wymieniane są kolejne fachowe terminy, jak np.: uczenie maszynowe (machine learning – ML), deep learning, big data, data science, sieci neuronowe (NN), natural language processing (NLP) – aby wymienić te najpopularniejsze.

Jedni autorzy rozpisują się o wspaniałej przyszłości, kiedy komputery zastąpią człowieka; inni zachwycają się funkcjonalnościami nowych produktów. Kolejni, ci bardziej ambitni, starają się wytłumaczyć mechanizmy działania algorytmów lub złożoność programistyczną leżącą za tymi nowymi wynalazkami.

Generalnie jeżeli ktoś nie jest w temacie AI, ML, big data, to po lekturze paru takich artykułów może odnieść raczej mylne pojęcie, co do obecnego stanu opisywanych dziedzin. A wynika to z faktu, że w pogoni za sensacją wiele medialnych rozważań nad sztuczna inteligencją idzie zupełnie w niezrozumiałym kierunku. Najczęstszy przykład to zapowiedź serii zwolnień w wielu firmach, gdyż to komputery i algorytmy wkrótce zastąpią liczne miejsca pracy. Problem w tym, że proces zmian na rynku pracy odbywa się cały czas od setek lat. Jedne zawody zanikają, inne świecą triumfy.

Warto zatem zejść na ziemię i spojrzeć na temat nowych technologii programistycznych i algorytmów nieco szerzej. I to jest celem niniejszego wpisu. Jest to subiektywna lista najważniejszych faktów z obszaru: sztucznej inteligencji, uczenia maszynowego oraz big data (głównie w aspekcie biznesowym). Man nadzieję, że pomoże ona osobom mniej wtajemniczonym poznać nieco temat oraz wyjaśnić to całe medialne zamieszanie.

10 faktów o sztucznej inteligencji, uczeniu maszynowym, big data

<1> To nie jest i nie będzie rewolucja. Techniki sztucznej inteligencji są rozwijane od kilkudziesięciu lat. Jednakże wraz ze wzrostem mocy obliczeniowej komputerów oraz usprawnianiem komunikacji między urządzeniami skala ich zastosowań zaczęła szybko rosnąć. Problemy, których rozwiązanie zajmowało wcześniej parę godzin, można obecnie rozwikłać w parę sekund. Ale mamy raczej do czynienia ze stopniowym rozwojem i udoskonalaniem niż z przełomami. Część wdrożeń metod sztucznej inteligencji zdążyła już spowszechnieć – np.: wyszukiwarka internetowa Google, modele dopasowani w Facebooku, dynamiczne scenariusze w grach komputerowych. W wielu przypadkach użytkownicy nie zdają sobie sprawy z wykorzystania AI, uczenia maszynowego, big data w produktach lub usługach, z których korzystają na co dzień.

<2> Za opisywanymi pojęciami stoi wielki biznes i miliardy dolarów rocznie. I nie chodzi tu tylko o producentów serwerów, procesorów, firm programistycznych, szkoleniowych, itd. Duży wpływ na rozwój AI w ostatnich latach mieli inwestorzy. Oni to widząc gigantyczną wartość małych firm technologicznych z sektora AI, zaczęli kierować w ten sektor gigantyczne pieniądze. Trudno się nim nie dziwić. Liczne przykłady pokazują, że wystarczy czasem tylko wzmianka prasowa, że firma „idzie w kierunku AI”, aby jej wartość wzrosła kilkukrotnie z dnia na dzień. Przepis na szybki zarobek gotowy. Ale też ostatnie lata pokazały, ile z tych wizji zakończyło się kompletną klapą.

<3> Rozwój AI przyniósł szereg sukcesów, ale i jeszcze więcej porażek. Są obszary, gdzie wyniki zastosowania AI są nadspodziewanie dobre, np.: medycyna, komputerowe rozpoznawanie obrazów, autonomiczne samochody. Bez trudu jednak znajdziemy również dziedziny, gdzie rezultaty zabaw z algorytmami są bardzo przeciętne. W wielu sferach rozwój ML czy AI napotyka na szereg barier. Przykładowo algorytmy tracą swoją moc tam, gdzie mamy do czynienia z dużą zmiennością zdarzeń, licznymi anomaliami i wahaniami, brakiem dostępu do części danych, . Innym przykładem może być tzw. sentiment analysis (analiza wydźwięku tekstu). O ile dla wielu języków obcych udaje się zbudować skuteczne modele, to w przypadku języka polskiego technika ta napotyka na szereg problemów z poprawną interpretacją słów.

<4> Budowa poprawnego modelu, algorytmu, programu komputerowego zajmuje bardzo dużo czasu. Obecnie jest dostępnych szereg algorytmów, które można uruchomić na dowolnym zbiorze danych w ciągu paru minut. Ale to nie oznacza, że będą one dostarczały wartościowych informacji. Model trzeba testować, parametryzować, walidować. Działa to bardziej na zasadzie prób i błędów, niż jako realizacja zdefiniowanej sekwencji działań. Zatem trudno nawet określić ile będzie trwało zbudowanie modelu. Aby tego było mało, „żywotność” modelu nie jest z reguły długa. Wraz z napływem nowych danych, okazuje się często, że zbudowany model osiąga coraz gorsze wyniki i należy pomyśleć nad poprawkami lub też jego budowę zacząć od nowa.

<5> Modele to często czarne skrzynki. To znaczy mniej więcej tyle, że mamy informacje o danych wejściowych, a także wyjściowych, ale nie jesteśmy w stanie wytłumaczyć, dlaczego algorytm dał akurat taki wynik. Przykładem są sieci neuronowe, których sposób działania jest znany, ale interpretacja wyników dosyć złożona. Nie zawsze dysponujemy bowiem informacją, które zmienne w modelu robią największą różnicę. Aby odpowiedzieć sobie na to pytanie, trzeba sięgnąć do dodatkowych technik i pakietów obliczeniowych.

W modelowaniu zjawisk stoimy często przed wyborem – czy model ma być logiczny i zrozumiały, a przez to lepiej zarządzalny, czy też interesuje nas tylko jego efektywność – poprawność. Szkoły w tej kwestii bywają różne, zwykle zależne od obszaru zastosowania danych algorytmów.

<6> Przy sztucznej inteligencji oraz uczeniu maszynowym trudno o uniwersalne rozwiązania. Funkcjonuje obecnie na rynku sporo firm, które wypracowały swoje narzędzia optymalizujące określone obszary biznesowy w oparciu o algorytmy ML lub elementy AI. Miałem większą lub mniejszą przyjemność zetknąć się z paroma z nich. Niestety po fazie testów na rzeczywistych danych okazywało się, że różnie bywa z ich skutecznością. W jednym przypadku wyniki były wręcz katastrofalne. Okazało się, że aplikacja oparta na modelu zbudowanym na bazie danych pochodzących z USA, nie sprawdza się kompletnie w przypadku Polski. Zanim zdecyduje się na zakup jakiegoś rozwiązania AI-ML, warto jednak sprawdzić, na jakiej zasadzie ono działa oraz na bazie jakich danych zostało zbudowane.

<7> Za ilością nie idzie jakość. Analizy na wielkich zbiorach danych niekoniecznie są bardziej wartościowe od tych zrobionych na mniejszych bazach i przy wykorzystaniu prostszych technik. Zaimplementowanie elementów sztucznej inteligencji lub uczenia maszynowego do dziedzin biznesowych, nie spowoduje wzrostów po 200 lub 500%. Częściej mamy do czynienia z poprawą rzędu 5%, 10-20%. A czasami pogorszeniem wyników. Natomiast biorąc pod uwagę pracochłonność modelowania i pozostałe koszty, okazuje się czasem, że wystarczającą dokładność można uzyskać zwykłą statystyką lub instrukcjami warunkowymi. Model zbudowany w oparciu o 200 zmiennych może okazać się niewystarczająco lepszy od tego bazującego na 5 parametrach.

<8> Nic nie jest bezbłędne. Za sztuczną inteligencja stoi człowiek, który może popełnić błąd. A budowane modele to uproszczenie rzeczywistości. W 999 przypadkach na 1000 mogą dać prawidłową odpowiedź, ale w tym jednym już nie. W zależności od badanego obszaru, w którym model jest zaimplementowany, ten jeden błąd może posiadać zupełnie inną wagę. Czym innym jest błędne udzielenie kredytu klientowi banku, a czym innym jest wydanie błędnej diagnozy lekarskiej. Algorytmy generalizują badane zjawisko i znajdują prawidłowości w oparciu o statystykę i rachunek prawdopodobieństwa. A to nie jest pewna wyrocznia.

<9> Pojęcia sztucznej inteligencji, uczenia maszynowego, big data są nadużywane, mylone i upraszczane. Pomijam już kwestię autorów fantastycznych przepowiedni odnośnie tych dziedzin – to oddzielny fenomen. Sformułowania typu: „w wyniku przeprowadzonej analizy big data…”, „w produkcie X zastosowano sztuczną inteligencję” mogą znaczyć dużo lub … nic. Dla jednych big data to baza danych składająca się z paru milionów rekordów, a dla innych wykorzystanie jakiejkolwiek funkcji obliczeniowej na bazie danych to już sztuczna inteligencja. Skąd się takie przekonania biorą? – można się domyślić. Ale jak wspominałem takie frazesy łatwo się sprzedają w mediach.

<10> AI i ML, pracy na dużych zbiorach danych można się samodzielnie nauczyć. Materiały do nauki metod sztucznej inteligencji, uczenia maszynowego, big data oraz narzędzia do pracy są dostępne na wyciągnięcie ręki. Jeżeli chcesz posmakować pracy na wielkich bazach danych i trochę pomodelować to nie stoi nic na przeszkodzie. Producenci rozwiązań w chmurze, takich jak Google Cloud czy Amazon Web Services, udostępniają wersje próbne swoich platform, w tym niezbędne narzędzia, biblioteki ML, testowe bazy danych. Youtube jest pełen materiałów szkoleniowych, a Google darmowych ebooków. W najprostszym przypadku zabawę z uczeniem maszynowym można także zacząć od bezpłatnego programu R.

Jeszcze na koniec szybkie pytanie...
Korzystasz z EXCEL lub PowerPoint?
Poznaj Naukę na przykładach!
500 funkcji Excel + 500 slajdów PowerPoint

Zobacz podręcznik =>

1 komentarz do “10 faktów dotyczących sztucznej inteligencji, uczenia maszynowego, big data, o których powinieneś wiedzieć”

  1. Super artykuł ! :) To bardzo błędne myślenie że komputer kiedyś zastąpi człowieka i doprowadzi do bezrobocia, takie tło kreują media a ludzie w to wierzą nie licząc się z tym że np, procesy produkcji są po prostu szybsze a do obsługi i produkcji maszyn trzeba niejednokrotnie więcej ludzi ( serwis, produkcja, obsługa, programiści ) niż miałoby to miejsce przy pracy zdalnej. Pozdrawiam

    Odpowiedz

Dodaj komentarz