Transparency tento problém řeší pomocí snadno interpretovatelných modelů, z nichž některým se budeme věnovat v další části. Vysvětlitelnost řeší tento problém „rozbalením černé skříňky“nebo pokusem získat přehled z modelu strojového učení, často pomocí statistických metod.
Co je vysvětlitelnost modelu?
Vysvětlitelnost modelu je široký koncept analýzy a porozumění výsledkům modelů ML. Nejčastěji se používá v kontextu „black-box“modelů, u kterých je obtížné prokázat, jak model dospěl ke konkrétnímu rozhodnutí.
Co je vysvětlitelnost v hlubokém učení?
Vysvětlitelnost (také označovaná jako „interpretovatelnost“) je koncept, že model strojového učení a jeho výstup lze vysvětlit způsobem, který lidské bytosti „dává smysl“na přijatelné úrovni … Jiné, jako jsou systémy hlubokého učení, i když jsou výkonnější, je mnohem těžší je vysvětlit.
Co znamená vysvětlitelnost v kontextu systému umělé inteligence?
Andrew Maturo, datový analytik, SPR. „Vysvětlitelná umělá inteligence v jednoduchých termínech znamená AI, která je transparentní ve svých operacích, takže lidští uživatelé budou schopni porozumět rozhodnutím a důvěřovat jim Organizace si musí položit otázku – můžete vysvětlit, jak to vaše umělá inteligence vytvořila? konkrétní vhled nebo rozhodnutí? –
Co je problém vysvětlitelnosti?
Lidé mají zjevnou nechuť k rozhodnutím v černých skříňkách, která je ovlivňují finančně, zdravotně a mnoha dalšími způsoby, a přitom zapomínají na různé druhy rozhodnutí. … Když umělá inteligence činí tato rozhodnutí, lze slyšet požadavek na vysvětlitelnost.