Co to jest i jak działa sztuczna inteligencja (AI), machine learning i ChatGPT – najważniejsze definicje i pojęcia, aby zrozumieć AI

  1. Artificial intelligence (AI) (Sztuczna inteligencja (AI)): dziedzina informatyki mająca na celu stworzenie inteligentnych maszyn, które potrafią myśleć i działać jak ludzie.
  2. Artificial Narrow Intelligence (ANI): nazywana również słabą AI, jest wyspecjalizowana w jednym obszarze, realizując jedno zadanie. Może wykonać to jedno zadanie bardzo dobrze, czasem nawet przewyższając człowieka w określonych powtarzalnych funkcjach. Jesteśmy otoczeni przez słabe AI – od algorytmów wyszukiwarki Google, poprzez korzystanie z aplikacji na naszym smartfonie, streaming programów telewizyjnych po roboty dronów. Na dzień dzisiejszy ANI jest jedyną istniejącą AI.
  3. Artificial General Intelligence (AGI): często określana jako silna AI. Podczas gdy słaba AI może wykonywać tylko określone zadania, silna AI odnosi się do maszyny, która jest tak inteligentna jak człowiek. Może ona w zasadzie konkurować z człowiekiem we wszystkich przedsięwzięciach, w tym w uczęszczaniu do szkoły i na uniwersytet. Ponieważ ludzki mózg jest tak złożony, AGI jest znacznie trudniejsza do opracowania i nie została jeszcze osiągnięta. Jednak niektórzy eksperci naukowi w społeczności przewidzieli jej pojawienie się (średnio) do roku 2060, pozostając niepewnymi.
  4. Artificial Super Intelligence (ASI): ewoluuje, aby stać się samodoskonalącą się inteligencją przewyższającą człowieka w wielu lub wszystkich dziedzinach. W przypadku ASI mówimy o czymś, co przekracza wszelkie nasze wyobrażenia. Mimo, że do jej rozwoju pozostały prawdopodobnie setki lat, już teraz toczą się debaty etyczne na temat tego, jak daleko ludzkość powinna dążyć do rozwoju AI bez utraty kontroli.
  5. Algorithms (Algorytmy) – Algorytm to zestaw kroków lub instrukcji dotyczących rozwiązania problemu lub wykonania zadania. Algorytmy są wykorzystywane w wielu różnych dziedzinach, w tym w informatyce, matematyce i analizie danych. W uczeniu maszynowym algorytmy są wykorzystywane do analizy i uczenia się z danych w celu dokonywania prognoz lub podejmowania działań.
  6. Machine learning (Uczenie maszynowe): Termin Machine Learning (ML) jest często mylony z lub nawet używany jako synonim AI. Chociaż są one blisko spokrewnione, nie są identyczne. ML jest w rzeczywistości poddziedziną AI. Składa się z technik, które umożliwiają programowi komputerowemu uzyskanie wglądu w dane. Algorytmy mogą rozpoznawać wzorce i prawidłowości w zbiorach danych i opracowywać na ich podstawie rozwiązania.
  7. Large language models (LLMs) (Duże modele językowe (LLM)): rodzaj modelu uczenia maszynowego, który został wytrenowany na dużym zbiorze danych tekstu i jest w stanie wygenerować język podobny do ludzkiego.
  8. Deep learning: jest podobszarem uczenia maszynowego i wykorzystuje sieci neuronowe. Metody szkolenia, które czerpią i analizują duże ilości danych, są wykorzystywane do tworzenia sztucznej inteligencji. Na podstawie istniejących informacji i sieci neuronowej system może wielokrotnie łączyć to, czego się nauczył, z nowymi treściami i w ten sposób uczyć się ponownie. Większość modeli głębokiego uczenia się jest realizowana poprzez zwiększenie liczby warstw w sieci neuronowej.
  9. Neural network (Sieć neuronowa): to algorytmy, które są wzorowane na ludzkim mózgu. Ten wyabstrahowany model połączonych sztucznych neuronów, umożliwia wykonywanie złożonych zadań na ogół zorganizowanych w kolejnych warstwach funkcji, przy czym każda warstwa wykorzystuje wyjście poprzedniej jako wejście.
  10. Datasets (Zbiory danych): zbiór danych, które są wykorzystywane do szkolenia, testowania lub oceny modeli uczenia maszynowego.
  11. Prompting: proces dostarczania dodatkowych informacji lub wskazówek do modelu uczenia maszynowego w celu poprawy jego wydajności.
  12. Models (Modele): matematyczna reprezentacja systemu lub procesu, często używana w uczeniu maszynowym do przewidywania lub podejmowania decyzji na podstawie danych.
  13. Transformers (Transformatory): rodzaj modelu uczenia maszynowego, który odniósł sukces w różnych zadaniach przetwarzania języka naturalnego, wykorzystując mechanizmy uwagi do przetwarzania sekwencji wejściowych i generowania sekwencji wyjściowych.
  14. Reinforcement learning (Uczenie wzmacniające): rodzaj uczenia maszynowego, w którym agent uczy się metodą prób i błędów, otrzymując nagrody lub kary za określone działania w środowisku.
  15. Transfer learning (Uczenie się przez przeniesienie): proces używania wstępnie wytrenowanego modelu jako punktu wyjścia dla nowego zadania, zamiast trenowania nowego modelu od podstaw.
  16. Online learning (Uczenie online): rodzaj uczenia maszynowego, w którym model jest aktualizowany w czasie rzeczywistym, gdy dostępne są nowe dane, a nie jest trenowany na stałym zbiorze danych.
  17. Batch learning (Uczenie wsadowe): rodzaj uczenia maszynowego, w którym model jest trenowany na stałym zbiorze danych, a nie jest aktualizowany w czasie rzeczywistym za pomocą nowych danych.
  18. Active learning (Uczenie aktywne): rodzaj uczenia maszynowego, w którym algorytm może zażądać dodatkowych oznaczonych danych w celu poprawy jego wydajności.
  19. Semi-supervised learning (Uczenie częściowo nadzorowane): rodzaj uczenia maszynowego, w którym algorytm otrzymuje niewielką ilość danych oznaczonych i dużą ilość danych nieoznaczonych i musi użyć obu tych danych do nauki.
  20. Multi-task learning (Uczenie wielozadaniowe): rodzaj uczenia maszynowego, w którym pojedynczy model jest szkolony do wykonywania wielu zadań jednocześnie.
  21. Neural machine translation (NMT) (Neuronowe tłumaczenie maszynowe (NMT)): rodzaj uczenia maszynowego, które obejmuje szkolenie modelu w celu przetłumaczenia tekstu w języku naturalnym z jednego języka na drugi.
  22. Natural language processing (NLP) (Przetwarzanie języka naturalnego (NLP)): poddziedzina AI, która zajmuje się interakcją między komputerami a ludźmi za pośrednictwem języka naturalnego, w tym zadaniami takimi jak tłumaczenie języka, streszczanie tekstu i analiza nastrojów.
  23. Computer vision (Widzenie komputerowe): poddziedzina AI, która zajmuje się rozwojem algorytmów i systemów, które mogą przetwarzać i rozumieć dane wizualne, takie jak obrazy i wideo.
  24. Robotic process automation (RPA) (Automatyzacja procesów robotycznych (RPA)): technologia, która pozwala robotom programowym naśladować działania człowieka w wykonywaniu zadań cyfrowych, takich jak wprowadzanie danych lub przetwarzanie transakcji.
  25. Classification and regression trees (Drzewa klasyfikacyjne i regresyjne): reprezentują proces lub zestaw reguł jako serię decyzji w strukturze drzewa. Ilustruje sposób przewidywania wartości zmiennej skupienia w oparciu o inne atrybuty. Wynikiem drzewa klasyfikacyjnego jest wartość dyskretna, taka jak klasa, do której należą dane.
  26. Fuzzy logic (Logika rozmyta): jest podejściem do podejmowania decyzji, które opiera się na logice wielowartościowej, a nie binarnej (“prawda” i “fałsz”). Logika dwuwartościowa często uznaje 0 za fałsz i 1 za prawdę. Jednak logika rozmyta zajmuje się wartościami prawdy pomiędzy 0 i 1, a wartości te są uważane za intensywność (stopień) prawdy.
  27. Bio-inspired approaches (Podejścia bio-inspirowane): są inspirowane systemami biologicznymi, czerpią inspirację z szerszego zakresu struktur biologicznych, a nie tylko z ludzkiego mózgu, które są zdolne do autonomicznej samoorganizacji. Algorytmy te naśladują mechanizmy biologiczne, aby lepiej dostosować decyzje do nowych problemów i nowych danych, oraz inteligencję roju.
  28. Supervised learning (Uczenie nadzorowane): najpowszechniej przyjęta forma uczenia maszynowego. W uczeniu nadzorowanym oczekiwane grupowanie informacji w pewne kategorie (output) jest dostarczane komputerowi poprzez przykłady danych (input), które zostały ręcznie skategoryzowane poprawnie i tworzą treningowy zbiór danych. Na podstawie tych przykładów wejścia-wyjścia system AI może kategoryzować nowe, niewidziane dane do wcześniej zdefiniowanych kategorii.
  29. Support vector machine (Maszyna wektorów podporowych (SVM)): algorytm uczenia nadzorowanego, który analizuje oznakowane/grupowane dane, identyfikuje punkty danych, które są najtrudniejsze do pogrupowania i na tej podstawie określa, jak rozdzielić różne grupy i sklasyfikować niewidziane punkty danych.
  30. Unsupervised learning (Uczenie bez nadzoru): rodzaj algorytmu uczenia maszynowego, który znajduje i analizuje ukryte wzorce lub wspólne cechy w danych, które nie zostały oznakowane lub sklasyfikowane. W odróżnieniu od uczenia nadzorowanego, system nie otrzymuje wcześniej zdefiniowanego zestawu klas, ale raczej identyfikuje wzorce i tworzy etykiety/grupy, w których klasyfikuje dane.
  31. Augmented Reality (Rzeczywistość rozszerzona): rozszerza percepcję rzeczywistości dla człowieka. Działa komputerowo i oferuje użytkownikowi dodatkowe informacje, które są zintegrowane lub nałożone jako elementy do wizualnej i dźwiękowej reprezentacji świata. Elementy rozszerzające to np. teksty, animacje, obrazy, filmy lub grafiki. Użytkownik często ma możliwość dostępu do treści rozszerzonych poprzez sterowanie gestami lub ekrany dotykowe.
  32. Biometrics (Biometria): odnosi się do nauki o mierzeniu i analizowaniu cech biologicznych. Obecnie procedury biometryczne są wykorzystywane do identyfikacji lub weryfikacji osób. Procedury biometryczne to na przykład rozpoznawanie odcisków palców lub twarzy.
  33. Knowledge representation and reasoning (Reprezentacja wiedzy i rozumowanie): reprezentuje informacje ze świata rzeczywistego, które komputer może zrozumieć, a następnie wykorzystać tę wiedzę do rozwiązania złożonych problemów, takich jak diagnoza stanu zdrowia. Nie chodzi tu tylko o przechowywanie danych, ale o umożliwienie maszynie uczenia się na podstawie tej wiedzy i inteligentnego zachowania.
  34. Distributed AI: zajmuje się systemami, które są tworzone przez grupy indywidualnych komponentów zwanych agentami. Taki system jest określony przez jego poszczególne agenty, interakcje między nimi (opisane przez język programowania), a wreszcie przez samo środowisko. Poszczególne agenty współpracują ze sobą, aby osiągnąć określone cele.
  35. Object tracking (Śledzenie obiektów): to problem określania (szacowania) pozycji i innych istotnych informacji o poruszających się obiektach w sekwencjach obrazów, powszechnie stosowany w systemach wyszukiwania obrazów, monitoringu i automatycznego parkowania pojazdów.
  36. Planning/scheduling (Planowanie/planowanie): obejmuje realizację strategii lub sekwencji działań, zwykle wykonywanych przez inteligentne agenty, autonomiczne roboty i pojazdy bezzałogowe.
  37. Predictive analytics (Analityka predykcyjna): proces przewidywania nieznanych zdarzeń w przyszłości przy użyciu różnych metod statystycznych oraz analizy danych bieżących i historycznych.
  38. Robotics (Robotyka): zajmuje się projektowaniem, tworzeniem, kontrolą, produkcją i obsługą robotów, czyli maszyn, które mogą poruszać się samodzielnie i wykonywać różne czynności. Roboty antropomorficzne lub humanoidalne obejmują również wytwarzanie kończyn i skóry, mimiki i gestów oraz zdolności posługiwania się językiem naturalnym.
  39. Speech analysis (Analiza mowy): zajmuje się rozpoznawaniem, analizą, klasyfikacją i przechowywaniem informacji o mowie. Przechowywane informacje są następnie umieszczane w odniesieniu do wypowiadanych słów, do ich znaczenia oraz w charakterystycznych cechach mówcy.
  40. Expert system (System ekspercki): rodzaj AI, który wykorzystuje bazę wiedzy i zbiór reguł do wykonywania zadań lub podejmowania decyzji w określonej dziedzinie.
  41. Rule-based system (System oparty na regułach): typ AI, który wykorzystuje zestaw reguł do podejmowania decyzji lub wykonywania zadań.
  42. Decision tree (Drzewo decyzyjne): typ modelu uczenia maszynowego, który dokonuje przewidywań na podstawie serii podziałów binarnych, reprezentowanych jako struktura drzewa.
  43. Random forest: metoda uczenia zespołowego, która trenuje wiele drzew decyzyjnych na różnych podzbiorach danych i łączy ich przewidywania w celu poprawy wydajności.
  44. Gradient boosting: metoda uczenia zespołowego, która trenuje słabe modele sekwencyjnie, przy czym każdy model próbuje poprawić błędy poprzedniego.
  45. k-nearest neighbor (k-NN) (k-najbliższych sąsiadów (k-NN)): rodzaj algorytmu uczenia maszynowego, który dokonuje predykcji na podstawie średniej etykiet k-najbliższych punktów danych w zbiorze treningowym.
  46. Naive Bayes (Naiwny Bayes): rodzaj algorytmu uczenia maszynowego, który wykorzystuje twierdzenie Bayesa do tworzenia prognoz na podstawie prawdopodobieństwa wystąpienia pewnych zdarzeń.
  47. Logistic regression (Regresja logistyczna): rodzaj algorytmu uczenia maszynowego, który jest wykorzystywany do zadań klasyfikacyjnych, przewidując prawdopodobieństwo wystąpienia zdarzenia w oparciu o liniową kombinację cech wejściowych.
  48. Perceptron: typ sieci neuronowej z pojedynczą warstwą liniowych jednostek progowych, stosowany do zadań klasyfikacji binarnej.
  49. Multilayer perceptron (MLP) (Perceptron wielowarstwowy (MLP)): rodzaj sieci neuronowej z wieloma ukrytymi warstwami jednostek nieliniowych, wykorzystywany do różnych zadań, w tym klasyfikacji i regresji.
  50. Convolutional neural network (CNN) (Konwolucyjna sieć neuronowa (CNN)): rodzaj sieci neuronowej zaprojektowanej do przetwarzania danych o topologii przypominającej siatkę, często wykorzystywanej do zadań takich jak klasyfikacja obrazów i wideo.
  51. Recurrent neural network (RNN) (Sieć neuronowa rekurencyjna (RNN)): rodzaj sieci neuronowej zaprojektowanej do przetwarzania danych sekwencyjnych, wykorzystującej połączenia zwrotne w celu umożliwienia przekazywania informacji z jednego etapu sekwencji do następnego.
  52. Long short-term memory (LSTM) (Pamięć długotrwała (LSTM)): rodzaj rekurencyjnej sieci neuronowej z dodatkowymi mechanizmami bramkowania, które pozwalają jej lepiej zapamiętywać długoterminowe zależności w sekwencjach.
  53. Gated recurrent unit (GRU): typ rekurencyjnej sieci neuronowej z mechanizmami bramkowania, które pozwalają jej lepiej wychwytywać długoterminowe zależności w sekwencjach.
  54. Attention mechanism (Mechanizm uwagi): metoda stosowana w uczeniu maszynowym, pozwalająca modelowi skupić się na określonych częściach danych wejściowych podczas ich przetwarzania, zamiast rozpatrywać całe dane wejściowe jednakowo.
  55. Activation function (Funkcja aktywacji): funkcja matematyczna, która jest stosowana do wyjścia neuronu w sieci neuronowej w celu wprowadzenia nieliniowości i umożliwienia sieci uczenia się bardziej złożonych zależności.
  56. Loss function (Funkcja straty): miara tego, jak dobrze model uczenia maszynowego jest w stanie dokonać przewidywań, używana do kierowania procesem szkolenia.
  57. Optimization algorithm (Algorytm optymalizacji): metoda używana do minimalizacji funkcji straty i poprawy wydajności modelu uczenia maszynowego.
  58. Stochastic gradient descent (SGD): algorytm optymalizacji, który polega na aktualizacji parametrów modelu na podstawie gradientu funkcji straty w odniesieniu do parametrów, obliczonego na małym losowym podzbiorze danych (“mini-batch”) w każdym kroku.
  59. Backpropagation: proces szkolenia sieci neuronowej poprzez obliczenie gradientu funkcji straty w odniesieniu do parametrów modelu i wykorzystanie tego gradientu do aktualizacji parametrów w kierunku minimalizacji straty.
  60. Classification (Klasyfikacja): rodzaj zadania uczenia maszynowego, w którym celem jest przewidzenie kategorycznej etykiety dla danych wejściowych.
  61. Regression (Regresja): rodzaj zadania uczenia maszynowego, którego celem jest przewidywanie ciągłej wartości liczbowej dla danych wejściowych.
  62. Underfitting (Niedopasowanie): stan w uczeniu maszynowym, w którym model jest zbyt prosty i nie jest w stanie uchwycić złożoności danych treningowych, co skutkuje słabą wydajnością na niewidzianych danych.
  63. Overfitting (Nadmierne dopasowanie): stan w uczeniu maszynowym, w którym model jest zbyt skomplikowany i zbyt dobrze nauczył się szczegółów danych treningowych, co powoduje słabą generalizację na niewidziane dane.
  64. Cost function (Funkcja kosztu): miara tego, jak dobrze model uczenia maszynowego jest w stanie przewidywać, używana do kierowania procesem szkolenia.
  65. Validation data (Dane walidacyjne): zbiór danych używany do oceny wydajności modelu uczenia maszynowego i dostrojenia jego hiperparametrów.
  66. Parameter (Parametr): wartość, która jest uczona przez model uczenia maszynowego podczas treningu, reprezentująca wewnętrzny stan modelu.
  67. Hyperparameter (Hiperparametr): wartość, która jest ustawiana przez praktyka i kontroluje zachowanie modelu uczenia maszynowego, np. szybkość uczenia lub liczba ukrytych jednostek w sieci neuronowej.
  68. Linear regression (Regresja liniowa): rodzaj algorytmu uczenia maszynowego, który jest używany do zadań regresji, przewidując ciągłą wartość liczbową na podstawie liniowej kombinacji cech wejściowych.
  69. Tree ensembles (Zespoły drzew): rodzaj modelu uczenia maszynowego, który łączy przewidywania wielu drzew decyzyjnych w celu poprawy wydajności, takich jak lasy losowe lub gradient boosting.
  70. Clustering (Klasteryzacja): rodzaj uczenia bez nadzoru, którego celem jest pogrupowanie punktów danych w klastry na podstawie podobieństwa.
  71. Dimensionality reduction (Redukcja wymiarowości): proces redukcji liczby cech w zbiorze danych poprzez rzutowanie danych na przestrzeń o niższym wymiarze, często stosowany w celu poprawy wydajności algorytmów uczenia maszynowego.
  72. Recommender systems (Systemy rekomendacyjne): rodzaj uczenia maszynowego polegający na trenowaniu modelu w celu tworzenia spersonalizowanych rekomendacji dla użytkowników na podstawie ich wcześniejszych zachowań i preferencji.
  73. Anomaly detection (Wykrywanie anomalii): rodzaj uczenia maszynowego, które obejmuje szkolenie modelu w celu zidentyfikowania nietypowych lub nieoczekiwanych wzorców w danych, które mogą wskazywać na problem lub błąd.
  74. Python: język programowania wysokiego poziomu powszechnie stosowany w uczeniu maszynowym i nauce o danych.
  75. NumPy: biblioteka dla Pythona, która zapewnia wsparcie dla dużych, wielowymiarowych tablic i matryc danych liczbowych.
  76. Scikit-learn: biblioteka dla Pythona, która zapewnia szeroki zakres algorytmów uczenia maszynowego i narzędzi do szkolenia, oceny i przewidywania modeli.
  77. TensorFlow: biblioteka oprogramowania open-source do uczenia maszynowego, opracowana przez Google, która zapewnia narzędzia do szkolenia i wdrażania modeli uczenia maszynowego.
  78. XGBoost: biblioteka open-source do szkolenia modeli gradient boosting, opracowana przez DMatrix, która była szeroko stosowana w konkursach uczenia maszynowego.
  79. Convolutional neural networks (Konwolucyjne sieci neuronowe): rodzaj sieci neuronowej zaprojektowanej do przetwarzania danych o topologii przypominającej siatkę, często wykorzystywanej do zadań takich jak klasyfikacja obrazów i wideo.
  80. Recurrent neural networks (Sieci neuronowe rekurencyjne): rodzaj sieci neuronowej zaprojektowanej do przetwarzania danych sekwencyjnych, wykorzystującej połączenia zwrotne, aby umożliwić przekazywanie informacji z jednego kroku w sekwencji do następnego.
  81. Optimization (Optymalizacja): proces znajdowania optymalnego zestawu parametrów dla modelu uczenia maszynowego, zwykle poprzez minimalizację funkcji straty.
  82. Hyperparameter tuning (Strojenie hiperparametrów): proces dostosowywania hiperparametrów modelu uczenia maszynowego w celu poprawy jego wydajności.
  83. Object detection and segmentation (Wykrywanie i segmentacja obiektów): zadanie polegające na identyfikacji i lokalizacji obiektów na obrazie oraz ich segmentacji z tła.
  84. Facial recognition system (System rozpoznawania twarzy): rodzaj uczenia maszynowego polegający na trenowaniu modelu do identyfikacji i rozpoznawania osób na podstawie ich cech twarzy.
  85. Sentiment analysis (Analiza nastrojów): zadanie polegające na identyfikacji i wyodrębnieniu nastrojów lub opinii wyrażonych w tekście, często wykorzystywane do oceny opinii publicznej na temat danego tematu lub produktu.
  86. Attention models (Modele uwagi): metoda stosowana w uczeniu maszynowym, umożliwiająca modelowi skupienie się na określonych częściach danych wejściowych podczas ich przetwarzania, zamiast równego rozpatrywania całości danych wejściowych.
  87. Machine translation (Tłumaczenie maszynowe): zadanie polegające na automatycznym tłumaczeniu tekstu z jednego języka na drugi.
  88. Word2vec: metoda uczenia się wektorowych reprezentacji słów w dużym zbiorze danych, na podstawie ich współwystępowania z innymi słowami w zbiorze danych.
  89. Word embeddings: sposób reprezentowania słów jako wektorów ciągłych w modelach uczenia maszynowego, pozwalający modelowi na uchwycenie znaczenia i kontekstu słów w sposób bardziej znaczący niż kodowanie typu “one-hot”.
  90. Locality-sensitive hashing (Haszowanie wrażliwe na lokalizację): metoda efektywnego znajdowania przybliżonych najbliższych sąsiadów w dużych zbiorach danych poprzez wykorzystanie funkcji haszujących do mapowania punktów danych do kubełków w sposób zachowujący podobieństwo punktów.
  91. Vector space models (Modele przestrzeni wektorowej): metoda reprezentowania danych tekstowych jako wektorów w przestrzeni wielowymiarowej, oparta na częstotliwości występowania różnych słów w tekście.
  92. Parts-of-speech tagging (Oznaczanie części mowy): zadanie polegające na oznaczaniu słów w zdaniu ich częścią mowy, taką jak rzeczownik, czasownik lub przymiotnik.
  93. N-gram language models (N-gramowe modele językowe): rodzaj modelu językowego, który przewiduje następne słowo w sekwencji na podstawie poprzednich n-1 słów.
  94. Autocorrect (Autokorekta): system, który automatycznie wykrywa i poprawia błędy ortograficzne i gramatyczne w tekście.
  95. Sentiment with neural networks (Sentyment z sieciami neuronowymi): wykorzystanie sieci neuronowych do przeprowadzenia analizy sentymentu, często poprzez uczenie się klasyfikacji tekstu jako pozytywnego, negatywnego lub neutralnego.
  96. Siamese networks (Sieci syjamskie): rodzaj architektury sieci neuronowej, która składa się z dwóch lub więcej identycznych podsieci, często wykorzystywanych do zadań takich jak porównywanie dwóch sekwencji wejściowych lub obrazów.
  97. Natural language generation (Generowanie języka naturalnego): zadanie automatycznego generowania tekstu podobnego do ludzkiego z danych strukturalnych lub innych danych wejściowych.
  98. Named entity recognition (NER) (Rozpoznawanie nazwanych podmiotów (NER)): zadanie identyfikacji i klasyfikacji nazwanych podmiotów w tekście, takich jak nazwy osób, organizacji i lokalizacji.
  99. Reformer models (Modele reformatorskie): rodzaj modelu uczenia maszynowego, który został opracowany w celu efektywnego przetwarzania długich sekwencji danych, z wykorzystaniem mechanizmów uwagi i samoobsługi.