Jak se liší transparentnost a vysvětlitelnost?

Obsah:

Jak se liší transparentnost a vysvětlitelnost?
Jak se liší transparentnost a vysvětlitelnost?

Video: Jak se liší transparentnost a vysvětlitelnost?

Video: Jak se liší transparentnost a vysvětlitelnost?
Video: Explainable machine learning & model transparency – from "Machine Learning Leadership and Practice" 2024, Listopad
Anonim

Transparency tento problém řeší pomocí snadno interpretovatelných modelů, z nichž některým se budeme věnovat v další části. Vysvětlitelnost řeší tento problém „rozbalením černé skříňky“nebo pokusem získat přehled z modelu strojového učení, často pomocí statistických metod.

Co je vysvětlitelnost modelu?

Vysvětlitelnost modelu je široký koncept analýzy a porozumění výsledkům modelů ML. Nejčastěji se používá v kontextu „black-box“modelů, u kterých je obtížné prokázat, jak model dospěl ke konkrétnímu rozhodnutí.

Co je vysvětlitelnost v hlubokém učení?

Vysvětlitelnost (také označovaná jako „interpretovatelnost“) je koncept, že model strojového učení a jeho výstup lze vysvětlit způsobem, který lidské bytosti „dává smysl“na přijatelné úrovni … Jiné, jako jsou systémy hlubokého učení, i když jsou výkonnější, je mnohem těžší je vysvětlit.

Co znamená vysvětlitelnost v kontextu systému umělé inteligence?

Andrew Maturo, datový analytik, SPR. „Vysvětlitelná umělá inteligence v jednoduchých termínech znamená AI, která je transparentní ve svých operacích, takže lidští uživatelé budou schopni porozumět rozhodnutím a důvěřovat jim Organizace si musí položit otázku – můžete vysvětlit, jak to vaše umělá inteligence vytvořila? konkrétní vhled nebo rozhodnutí? –

Co je problém vysvětlitelnosti?

Lidé mají zjevnou nechuť k rozhodnutím v černých skříňkách, která je ovlivňují finančně, zdravotně a mnoha dalšími způsoby, a přitom zapomínají na různé druhy rozhodnutí. … Když umělá inteligence činí tato rozhodnutí, lze slyšet požadavek na vysvětlitelnost.

Doporučuje: