Dołącz do czytelników
Brak wyników

Informacja a wiedza

Artykuł | 14 grudnia 2020 | NR 6
0 106

Wszystkie koszty i energia włożone w zdobycie określonej wiedzy z danej dziedziny przez człowieka mają ogromną wartość, ale niestety umierają bezpowrotnie z jej właścicielem. Szybkość zmian, jakich doświadcza świat, wymusza odnalezienie sposobu na jej zatrzymanie w takiej formie, aby następne pokolenia były w stanie z niej korzystać. Zastosowanie platformy technologicznej opartej na ontologii i semantyce otwiera możliwość budowy nowoczesnych narzędzi informatycznych, dzięki którym powinno udać się ten cenny zasób zachować.

 

Świat początku trzeciego milenium to niewątpliwie kraina, w której króluje informatyka. Era cyfrowa, której doświadczamy na co dzień, umożliwia już zbieranie i przechowywanie nieprzebranych ilości informacji teoretycznie o wszystkim. Repozytoria największych koncernów gromadzą petabajty danych na swoich serwerach – za przykład niech posłuży budowana od 2014 r. przez przeglądarkowego giganta baza knowledge vault, posiadająca już ponad 2 mld pojęć niestrukturalnych (unstructured data). Podobnie jest w przemyśle – systemy akwizycji danych to w tej chwili już nie pojedyncze urządzenia, lecz potężne sieci łączące w swoich instalacjach ogromne obszary procesowe. Aby móc wykorzystać w praktyce te dane, potrzebna jest ich analiza oraz poprawna interpretacja, by zysk w postaci wiedzy mógł przynieść jakikolwiek profit dla przedsiębiorstwa.

Można powiedzieć, że dane dla wielu współczesnych firm tworzą syntetyczny odpowiednik przemiany materii istot żywych, z racji tego, że dane przetworzone mają wpływ na kondycję i metody zarządzania przedsiębiorstwem, a to z kolei determinuje rodzaj i jakość wykorzystywanych w nich danych.

Główną zasadą cyfrowego świata jest jego kwantyzacja, która polega w bardzo dużym uproszczeniu na kompresji stratnej – z nieuniknioną i nieodwracalną utratą informacji, na które świadomie się godzimy.

I wszystko jest w porządku wobec danych fizycznych niezbędnych w danym procesie produkcyjnym, które aż z naddatkiem wystarczają, aby dany proces kontrolować. Gorzej, jeśli do poprawności prowadzenia procesu oprócz danych fizycznych potrzebne są jeszcze decyzje na podstawie analiz, których wyliczyć z danych na tę chwilę się nie da, albo gdy takich danych po prostu brak.

I w tym miejscu natrafiamy na pierwsze trudności. Interpretacja informacji na podstawie danych to już zadanie mocno specjalistyczne, z którym tylko częściowo świat technologii cyfrowej sobie radzi. Natomiast wnioski z takich interpretacji w postaci wiedzy operacyjnej, która powinna wskazać, jak osiągnąć zamierzone cele, są na tę chwilę niestety bardzo ograniczone w przestrzeni technik komputerowych. Ogólnie rzecz biorąc, im mniej powtarzalne i bardziej rozbieżne serie danych, tym większa trudność ich interpretacji przez programy komputerowe.

Również w obszarze syntezy informacji na podstawie danych wejściowych napotyka się na trudności z poprawnym zdefiniowaniem odpowiednich algorytmów programowych. Istnieje również sporna kwestia z ujednoliceniem definicji wiedzy opartej na doświadczeniu w ujęciu możliwym do wykorzystania w praktycznych rozwiązaniach informatycznych.

Zwykle w takich sytuacjach polegamy na ekspertach, którzy kojarząc fakty i znając dany proces, są w stanie z dużym prawdopodobieństwem podjąć najlepszą w danej chwili decyzję. Niestety, otaczająca nas rzeczywistość gospodarcza oraz starzejące się społeczeństwo powodują rosnący niedobór kadr o najwyższych kwalifikacjach.

Otaczające nas zdobycze cywilizacji opierają swoje istnienie w przeważającym stopniu na skumulowanej mądrości przeszłych pokoleń, gdzie mądrość zdefiniowana jest jako wiedza i doświadczenie poparte umiejętnościami. Rozwój i postęp nie byłyby możliwe bez ich przyswojenia i korzystania z nich. W dobie zalewającego nas zewsząd szumu informacyjnego wyłowienie z niego elementów o potencjalnie wartościowej treści zaczyna być problemem, już nie tylko socjologiczno-społecznym, ale także inżynieryjno-technicznym.

 

NARODZINY SYSTEMÓW EKSPERTOWYCH

Historia tego obszaru sztucznej inteligencji (SI) jest niewiele młodsza od samej informatyki jako takiej. Systemy te wyposażone są w potężne bazy wiedzy, maszyny wnioskujące i objaśniające, a porozumiewają się z człowiekiem poprzez interfejsy użytkownika; i pomimo swoich ograniczeń w wielu zastosowaniach osiągnęły poziom, który kwalifikuje je do zastosowań komercyjnych.

Protoplastami istniejących dziś systemów były programy napisane w języku Lisp, takie jak np. opracowany w połowie lat sześćdziesiątych ubiegłego wieku Dendral. Ten powstały w Stanford University program ekspertowy jest uważany za jedno z pierwszych udanych wdrożeń tego typu systemów. Podstawowym jego zadaniem było ustalanie struktury molekularnej nieznanych chemicznych związków organicznych na podstawie analizy widm spektroskopowych. Wiedza w systemie Dendral była reprezentowana zarówno w sposób proceduralny, jak i w formie reguł oraz ewaluacji. System osiągnął sprawność porównywalną, a w niektórych przypadkach przewyższającą sprawność ekspertów z krwi i kości. System Dendral i pochodne od niego systemy stały się od tamtego czasu standardowymi narzędziami w laboratoriach badawczych chemików.

Lata siedemdziesiąte XX w. przyniosły następne projekty, z których szczególnie jeden jest wart przytoczenia. Mowa tu o systemie Prospector powstałym w Stanford Research Institute. Został on zaprojektowany, aby wspomagać geologów w określeniu rodzaju skały na podstawie zawartości w niej różnych minerałów. Ułatwił poszukiwanie złóż surowców mine...

Dalsza część jest dostępna dla użytkowników z wykupionym planem

Przypisy