Już ponad 3 000 klientów ebooka. 
Ściąga z EXCELA dla każdego - SETKI przykładów funkcji otrzymasz w 3 minuty.
ZOBACZ EXCEL EBOOK >

10 faktów dotyczących sztucznej inteligencji, uczenia maszynowego, big data, o których powinieneś wiedzieć

Sztuczna inteligencja (artificial intelligence – AI) to hasło klucz. W ostatnimi czasy niezwykle uwielbiane przez media zajmujące się tematyką biznesową i technologiczną. A jak jest już mowa o sztucznej inteligencji, to zazwyczaj wymieniane są kolejne fachowe terminy, jak np.: uczenie maszynowe (machine learning – ML), deep learning, big data, data science, sieci neuronowe (NN), natural language processing (NLP) – aby wymienić te najpopularniejsze.

Jedni autorzy rozpisują się o wspaniałej przyszłości, kiedy komputery zastąpią człowieka; inni zachwycają się funkcjonalnościami nowych produktów. Kolejni, ci bardziej ambitni, starają się wytłumaczyć mechanizmy działania algorytmów lub złożoność programistyczną leżącą za tymi nowymi wynalazkami.

Generalnie jeżeli ktoś nie jest w temacie AI, ML, big data, to po lekturze paru takich artykułów może odnieść raczej mylne pojęcie, co do obecnego stanu opisywanych dziedzin. A wynika to z faktu, że w pogoni za sensacją wiele medialnych rozważań nad sztuczna inteligencją idzie zupełnie w niezrozumiałym kierunku.

Najczęstszy przykład to zapowiedź serii zwolnień w wielu firmach, gdyż to komputery i algorytmy wkrótce zastąpią liczne miejsca pracy. Problem w tym, że proces zmian na rynku pracy odbywa się cały czas od setek lat. Jedne zawody zanikają, inne świecą triumfy. Te zmiany to naturalny proces, który raz na pewien czas jest tylko lekko przyspieszany za sprawą nowych wynalzaków.

Warto zatem zejść na ziemię i spojrzeć na temat nowych technologii programistycznych i algorytmów nieco szerzej. I to jest celem niniejszego wpisu. Jest to subiektywna lista najważniejszych faktów z obszaru: sztucznej inteligencji, uczenia maszynowego oraz big data (głównie w aspekcie biznesowym). Man nadzieję, że pomoże ona osobom mniej wtajemniczonym poznać nieco temat oraz wyjaśnić to całe medialne zamieszanie.

10 faktów o sztucznej inteligencji, uczeniu maszynowym, big data

1. To nie jest i nie będzie rewolucja.

Techniki sztucznej inteligencji są rozwijane od kilkudziesięciu lat. Jednakże wraz ze wzrostem mocy obliczeniowej komputerów oraz usprawnianiem komunikacji między urządzeniami skala ich zastosowań zaczęła szybko rosnąć.

Problemy, których rozwiązanie zajmowało wcześniej parę godzin, można obecnie rozwikłać w parę sekund. Ale mamy raczej do czynienia ze stopniowym rozwojem i udoskonalaniem niż z przełomami. Część wdrożeń metod sztucznej inteligencji zdążyła już spowszechnieć – np.: wyszukiwarka internetowa Google, modele dopasowani w Facebooku, dynamiczne scenariusze w grach komputerowych.

W wielu przypadkach użytkownicy nie zdają sobie sprawy z wykorzystania AI, uczenia maszynowego, big data w produktach lub usługach, z których korzystają na co dzień. Mnóstwo takich rozwiązań jest już zaimplementowanych w aplikacjach mobilnych.

Dużo medialnego rozgłosu przynosiło rozwiązanie Chat GPT. Narzędzie z obszaru językowego uczenia maszynowego, które dotychczas było zarezerwowane dla ograniczego grona data-scientist-ów, zostało szeroko udostępnione. Teraz każdy jest w stanie sprawdzić, jak można rozmawiać z komputerem, i jaki potencjał stoi za algorytmami uczenia maszynowego.

Przykład działania tej aplikacji zamieszczam poniżej. Nagłówek to wprowadzone zapytanie, a poniżej to tekst wygenerowany przez algorytm w ciągu około 15 sekund. Akurat to zadanie nie było za trudne. Równie dobrze można zadawać znacznie trudniejsze pytania – dotyczące nauki i programowania. Wyniki jakie się uzyskuje w dużej większości są opisywane jako „całkiem dobre – oczekiwałem czegoś gorszego”.

Jak dokładnie działa chatgpt?

ChatGPT jest modelem języka uczenia maszynowego opracowanym przez OpenAI. Działa na zasadzie przetwarzania języka naturalnego i jest wyposażony w bardzo dużą bazę wiedzy, którą zdobył podczas treningu na ogromnej ilości danych.

Kiedy użytkownik wprowadza pytanie, model analizuje tekst i próbuje zrozumieć intencję pytania. Następnie, model używa swojej bazy wiedzy i algorytmów, aby wygenerować odpowiedź. Wiele z tych algorytmów korzysta z uczenia głębokiego i uczenia się z nagrodą, aby nauczyć model, jak generować odpowiedzi, które są najbardziej odpowiednie i trafne dla danego pytania.

Ostatecznie, model wygeneruje odpowiedź, która jest wyświetlana użytkownikowi. W przypadku ChatGPT, odpowiedzi są generowane na podstawie milionów przykładów języka, które model widział podczas treningu, a nie na podstawie reguł lub szablonów. To pozwala modelowi na generowanie odpowiedzi, które są bardziej elastyczne i naturalne niż w przypadku innych modeli języka.

2. Za opisywanymi pojęciami stoi wielki biznes i miliardy dolarów rocznie.

I nie chodzi tu tylko o producentów serwerów, procesorów, firm programistycznych, szkoleniowych, itd. Duży wpływ na rozwój AI w ostatnich latach mieli inwestorzy. Oni to widząc gigantyczną wartość małych firm technologicznych z sektora AI, zaczęli kierować w ten sektor gigantyczne pieniądze.

Trudno się nim nie dziwić. Liczne przykłady pokazują, że wystarczy czasem tylko wzmianka prasowa, że firma „idzie w kierunku AI”, aby jej wartość wzrosła kilkukrotnie z dnia na dzień. Przepis na szybki zarobek gotowy. Ale też ostatnie lata pokazały, ile z tych wizji zakończyło się kompletną klapą. Zatem naturalna selekcja ma też miejsce w obszarze sztucznej inteligencji.

3. Rozwój AI przyniósł szereg sukcesów, ale i jeszcze więcej porażek.

Są obszary, gdzie wyniki zastosowania AI są nadspodziewanie dobre, np.: medycyna, komputerowe rozpoznawanie obrazów, autonomiczne samochody. Bez trudu jednak znajdziemy również dziedziny, gdzie rezultaty zabaw z algorytmami są bardzo przeciętne. W wielu sferach rozwój ML czy AI napotyka na szereg barier.

Przykładowo algorytmy tracą swoją moc tam, gdzie mamy do czynienia z dużą zmiennością zdarzeń, licznymi anomaliami i wahaniami, brakiem dostępu do części danych.

Innym przykładem może być tzw. sentiment analysis (analiza wydźwięku tekstu). O ile dla wielu języków obcych udaje się zbudować skuteczne modele, to w przypadku języka polskiego technika ta napotyka na szereg problemów z poprawną interpretacją słów. Bardzo ważne jest określenie intencji oraz stanowiska mówiącego. A w przypadku sformułowań o charakterze ironicznym lub ujętych bardzo skrótowo, jest to bardzo trudne zadanie dla komputera.

Jednakże z roku na rok kolejne wersje algorytmów stają sie coraz lepsze. I to kwestia czasu, gdy powyżej opisywane przeszkody zostaną pokonane.

4. Budowa poprawnego modelu, algorytmu, programu komputerowego zajmuje bardzo dużo czasu.

Obecnie jest dostępnych szereg algorytmów, które można uruchomić na dowolnym zbiorze danych w ciągu paru minut. Ale to nie oznacza, że będą one dostarczały wartościowych informacji. Model trzeba testować, parametryzować, walidować.

Działa to bardziej na zasadzie prób i błędów, niż jako realizacja zdefiniowanej sekwencji działań. Zatem trudno nawet określić, ile będzie trwało zbudowanie modelu. W ostatnim czasie zaczęły powstawać „maszynki”, których zadaniem jest przyspieszenie całego procesu budowy modelu uczenia maszynowego. Te automaty to algorytmy, których celem jest znalezienie najlepszego algorytmu, który sprawdza się w danej sytuacji. Gdy te narzędzia zostaną usprawnione, wtedy ponownie idea sztucznej inteligencji stanie się bardziej bliska.

Jednakże warto też zaznaczyć, że „żywotność” niektórych modeli nie jest długa. Wraz z napływem nowych danych, okazuje się często, że zbudowany model osiąga coraz gorsze wyniki i należy pomyśleć nad poprawkami. Zdarzają się też sytuację, kiedy budowę całego modelu należy zacząć od nowa.

5. Modele to często czarne skrzynki.

Modele jako „czarne skrzynki” to znaczy mniej więcej tyle, że mamy informacje o danych wejściowych, a także wyjściowych, ale nie jesteśmy w stanie wytłumaczyć, dlaczego algorytm dał akurat taki wynik.

Przykładem są sieci neuronowe, których sposób działania jest znany, ale interpretacja wyników dosyć złożona. Nie zawsze dysponujemy bowiem informacją, które zmienne w modelu robią największą różnicę. Aby odpowiedzieć sobie na to pytanie, trzeba sięgnąć do dodatkowych technik i pakietów obliczeniowych.

W modelowaniu zjawisk stoimy często przed wyborem:

  • czy model ma być logiczny i zrozumiały, a przez to lepiej zarządzalny,
  • czy też interesuje nas tylko jego efektywność – poprawność.

Szkoły w tej kwestii bywają różne, zwykle zależne od obszaru zastosowania danych algorytmów.

6. Przy sztucznej inteligencji oraz uczeniu maszynowym trudno o uniwersalne rozwiązania.

Funkcjonuje obecnie na rynku sporo firm, które wypracowały swoje narzędzia optymalizujące określone obszary biznesowy w oparciu o algorytmy ML lub elementy AI. Miałem większą lub mniejszą przyjemność zetknąć się z paroma z nich.

Niestety po fazie testów na rzeczywistych danych okazywało się, że różnie bywa z ich skutecznością. W jednym przypadku wyniki były wręcz katastrofalne. Okazało się, że aplikacja oparta na modelu zbudowanym na bazie danych pochodzących z USA, nie sprawdza się kompletnie w przypadku Polski. Zanim zdecyduje się na zakup jakiegoś rozwiązania AI-ML, warto jednak sprawdzić, na jakiej zasadzie ono działa oraz na bazie jakich danych zostało zbudowane.

7. Za ilością nie idzie jakość.

Analizy na wielkich zbiorach danych niekoniecznie są bardziej wartościowe od tych zrobionych na mniejszych bazach i przy wykorzystaniu prostszych technik. Zaimplementowanie elementów sztucznej inteligencji lub uczenia maszynowego do dziedzin biznesowych, nie spowoduje wzrostów po 200 lub 500%. Częściej mamy do czynienia z poprawą rzędu 5%, 10-20%. A czasami pogorszeniem wyników.

Natomiast biorąc pod uwagę pracochłonność modelowania i pozostałe koszty, okazuje się czasem, że wystarczającą dokładność można uzyskać zwykłą statystyką lub instrukcjami warunkowymi. Model zbudowany w oparciu o 200 zmiennych może okazać się niewystarczająco lepszy (pok kątem kosztów i korzyści) od tego bazującego na 5 parametrach.

8. Nic nie jest bezbłędne.

Za sztuczną inteligencja stoi człowiek, który może popełnić błąd. A budowane modele to uproszczenie rzeczywistości. W 999 przypadkach na 1000 mogą dać prawidłową odpowiedź, ale w tym jednym już nie.

W zależności od badanego obszaru, w którym model jest zaimplementowany, ten jeden błąd może posiadać zupełnie inną wagę. Czym innym jest błędne udzielenie kredytu klientowi banku, a czym innym jest wydanie błędnej diagnozy lekarskiej. Algorytmy generalizują badane zjawisko i znajdują prawidłowości w oparciu o statystykę i rachunek prawdopodobieństwa. A to nie jest pewna wyrocznia.

9. Pojęcia sztucznej inteligencji, uczenia maszynowego, big data są nadużywane, mylone i upraszczane.

Pomijam już kwestię autorów fantastycznych przepowiedni odnośnie tych dziedzin – to oddzielny fenomen. Sformułowania typu: „w wyniku przeprowadzonej analizy big data…”, „w produkcie X zastosowano sztuczną inteligencję” mogą znaczyć dużo lub … nic.

Dla jednych big data to baza danych składająca się z paru milionów rekordów, a dla innych wykorzystanie jakiejkolwiek funkcji obliczeniowej na bazie danych to już sztuczna inteligencja. Skąd się takie przekonania biorą? – można się domyślić. Ale jak wspominałem, takie frazesy łatwo się sprzedają w mediach.

10. AI i ML, pracy na dużych zbiorach danych można się samodzielnie nauczyć.

Materiały do nauki metod sztucznej inteligencji, uczenia maszynowego, big data oraz narzędzia do pracy są dostępne na wyciągnięcie ręki. Jeżeli chcesz posmakować pracy na wielkich bazach danych i trochę pomodelować to nie stoi nic na przeszkodzie.

Producenci rozwiązań w chmurze, takich jak Google Cloud czy Amazon Web Services, udostępniają wersje próbne swoich platform, w tym niezbędne narzędzia, biblioteki ML, testowe bazy danych. Youtube jest pełen materiałów szkoleniowych, a Google darmowych ebooków. W najprostszym przypadku zabawę z uczeniem maszynowym można także zacząć od bezpłatnego programu R lub Python.

Pytanie...
Korzystasz z EXCEL lub PowerPoint?
Poznaj setki praktycznych przykładów!
500 funkcji Excel + 500 slajdów PowerPoint

Zobacz podręcznik =>

2 komentarze do “10 faktów dotyczących sztucznej inteligencji, uczenia maszynowego, big data, o których powinieneś wiedzieć”

  1. Super artykuł ! :) To bardzo błędne myślenie że komputer kiedyś zastąpi człowieka i doprowadzi do bezrobocia, takie tło kreują media a ludzie w to wierzą nie licząc się z tym że np, procesy produkcji są po prostu szybsze a do obsługi i produkcji maszyn trzeba niejednokrotnie więcej ludzi ( serwis, produkcja, obsługa, programiści ) niż miałoby to miejsce przy pracy zdalnej. Pozdrawiam

    Odpowiedz

Dodaj komentarz

X