Digital Tutykać Tkostka (DTT)

Jak przechytrzyć sztuczną inteligencję - człowiek kontra maszyna.

Systemy komputerowe AI trafiają do wielu dziedzin naszego życia i oferują ogromny potencjał, od autonomicznych pojazdów po pomoc lekarzom w diagnozowaniu i autonomicznych robotach poszukiwawczo-ratowniczych.

Jednak jednym z głównych nierozwiązanych problemów, szczególnie w przypadku gałęzi sztucznej inteligencji znanej jako „sieci neuronowe”, jest to, że naukowcy często nie potrafią wyjaśnić, dlaczego coś idzie nie tak. Wynika to z braku zrozumienia procesu podejmowania decyzji w systemach SI. Ten problem jest znany jako problem „czarnej skrzynki”.

Kto jest mądrzejszy?

Nowy 15-miesięczny projekt badawczy Uniwersytetu Lancaster, w który zaangażowany jest również Uniwersytet w Liverpoolu, ma na celu odkrycie tajemnic problemu czarnej skrzynki i znalezienie nowej drogigłęboki Learning„Znajdź modele komputerowe AI, które sprawiają, że decyzje są przejrzyste i możliwe do wyjaśnienia.

Projekt "W kierunku odpowiedzialnych i dających się wytłumaczyć autonomicznych, robotycznych systemów uczenia się„opracuje szereg procedur weryfikacji bezpieczeństwa i testów w celu opracowania algorytmów sztucznej inteligencji. Pomogą one zapewnić, że decyzje podejmowane przez systemy są solidne i możliwe do wyjaśnienia.

Źródło obrazu: Pixabay


Trening

Naukowcy wykorzystają technikę zwaną „treningiem odwrotnym”. Polega na przedstawieniu systemu w danej sytuacji, w której uczy się, jak podjąć działanie - np. B. Wykrywanie i podnoszenie przedmiotu. Następnie badacze zmieniają różne elementy scenariusza, takie jak kolor, kształt, środowisko i obserwują, w jaki sposób system uczy się metodą prób i błędów. Naukowcy są przekonani, że te obserwacje mogą prowadzić do lepszego zrozumienia, w jaki sposób system uczy się i wgląda w Proces podejmowania decyzji Zgoda.


Opracowując sposoby tworzenia systemów z sieciami neuronowymi, które potrafią rozumieć i przewidywać decyzje, badania będą miały kluczowe znaczenie dla odblokowania systemów autonomicznych w obszarach krytycznych dla bezpieczeństwa, takich jak pojazdy i roboty w przemyśle.

Dr. Wenjie Ruan, profesor w Szkole Informatyki i Komunikacji Uniwersytetu Lancaster i główny badacz projektu, powiedział: „Chociaż głęboki Learning Jako jedna z najbardziej niezwykłych technik sztucznej inteligencji odniosła ogromny sukces w wielu zastosowaniach, ma swoje własne problemy, gdy jest używana w systemach krytycznych dla bezpieczeństwa, w tym nieprzejrzyste mechanizmy podejmowania decyzji i podatność na ataki kontradyktoryjne. „Ten projekt jest dla nas doskonałą okazją do wypełnienia luki badawczej między technikami głębokiego uczenia się a systemami krytycznymi dla bezpieczeństwa.