Ostatnie komentarze
-
Karol
w artykule: Jak przyspieszyć dysk HDD? -
Krzysiek
w artykule: Jak przyspieszyć dysk HDD? -
Jurek
w artykule: Nawet Google woli refabrykowane serwery! -
Ola
w artykule: 5 Must Have aplikacji dla właścicieli zwierząt...
Szukaj w blogu
Kategorie bloga
Jak przechytrzyć Sztuczną Inteligencję - Człowiek vs Maszyna.
Systemy komputerowe AI wkraczają w wiele sfer naszego życia i oferują ogromny potencjał, począwszy od samojezdnych pojazdów, poprzez pomoc lekarzom w diagnozowaniu stanu zdrowia, aż po autonomiczne roboty poszukiwawczo - ratownicze.
Jednak jedną z głównych nierozwiązanych kwestii, szczególnie w odniesieniu do gałęzi AI znanej jako "sieci neuronowe", jest to, że gdy coś pójdzie nie tak, naukowcy często nie potrafią wyjaśnić, dlaczego tak się dzieje. Wynika to z braku zrozumienia procesu podejmowania decyzji w ramach systemów SI. Kwestia ta nazywana jest problemem "czarnej skrzynki".
KTO JEST MĄDRZEJSZY.
Nowy 15-miesięczny projekt badawczy prowadzony przez Uniwersytet w Lancaster, w który zaangażowany jest Uniwersytet w Liverpoolu, będzie dążył do rozwikłania tajemnic związanych z problemem czarnej skrzynki i odkrycia nowego sposobu tworzenia "głębokiego uczenia się" modeli komputerowych AI, dzięki którym decyzje są przejrzyste i możliwe do wyjaśnienia.
Projekt "W kierunku odpowiedzialnych i wyjaśnialnych autonomicznych systemów robotycznych umożliwiających uczenie się" opracuje serię technik weryfikacji bezpieczeństwa i testowania w celu opracowania algorytmów Sztucznej Inteligencji. Pomogą one zagwarantować solidne i możliwe do wyjaśnienia decyzje podejmowane przez systemy.
SZKOLENIE ADWERSYJNE
Naukowcy będą stosować technikę zwaną "szkoleniem adwersyjnym". Polega ona na prezentowaniu systemu w danej sytuacji, w której uczy się on, jak wykonać działanie - takie jak identyfikacja i podniesienie obiektu. Naukowcy zmieniają następnie różne elementy scenariusza, takie jak kolor, kształt, środowisko i obserwują, jak system uczy się poprzez próby i błędy. Naukowcy uważają, że obserwacje te mogą prowadzić do lepszego zrozumienia, w jaki sposób system uczy się i zapewnia wgląd w proces podejmowania decyzji.
Opracowując sposoby tworzenia systemów sieci neuronowych, w których można zrozumieć i przewidzieć proces podejmowania decyzji, badania będą kluczem do uwolnienia autonomicznych systemów w obszarach, w których bezpieczeństwo ma kluczowe znaczenie, takich jak pojazdy i roboty w przemyśle.
Dr Wenjie Ruan, wykładowca w Lancaster University's School of Computing and Communications oraz główny badacz projektu, powiedział: "Chociaż dogłębna nauka, jako jedna z najbardziej niezwykłych technik Sztucznej Inteligencji, odniosła ogromny sukces w wielu zastosowaniach, ma swoje własne problemy, gdy jest stosowana w systemach o kluczowym znaczeniu dla bezpieczeństwa, w tym nieprzejrzyste mechanizmy podejmowania decyzji i podatność na ataki ze strony przeciwników. "Ten projekt stanowi dla nas doskonałą okazję do wypełnienia luki badawczej pomiędzy techniką głębokiego uczenia się a systemami o kluczowym znaczeniu dla bezpieczeństwa.
ZROZUMIEĆ LEPIEJ.
"Badania te ostatecznie pozwolą użytkownikom końcowym zrozumieć i zaufać decyzjom podejmowanym przez modele głębokiego uczenia się w różnych systemach o kluczowym znaczeniu dla bezpieczeństwa, w tym w samochodach samojezdnych, robotach ratowniczych i zastosowaniach w służbie zdrowia.
Dr Xiaowei Huang, wykładowca na Uniwersytecie w Liverpoolu i współbadacz tego projektu, powiedział: "Projekt ten ma ogromny potencjał prowadzący do znacznego wpływu zarówno na sztuczną inteligencję, jak i robotykę oraz systemy autonomiczne, w których techniki AI były szeroko stosowane. Poza postępem teoretycznym, projekt ma na celu opracowanie praktycznej metodologii, narzędzi i demonstracji, aby zapewnić wytyczne dla rozwoju przemysłowego bezpiecznych i odpowiedzialnych systemów robotycznych".