Porovnanie klasickej analýzy významnosti premenných a interpretácie pomocou SHAP pri modeli XGboost

Interpretovateľnosť modelov strojového učenia zohráva kľúčovú úlohu kde je potrebné porozumieť rozhodovaciemu procesu modelu. Tradičné metódy hodnotenia významnosti premenných, ako napríklad Gain alebo Weight používané v rámci modelov typu Gradient Boosted Trees, poskytujú globálny prehľad o dôležit...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autor principal: Bednařík, Andrej, 1998-
Formato: Capítulo de libro
Lenguaje:eslovaco
Materias:
Etiquetas: Agregar Etiqueta
Sin Etiquetas, Sea el primero en etiquetar este registro!
Descripción
Sumario:Interpretovateľnosť modelov strojového učenia zohráva kľúčovú úlohu kde je potrebné porozumieť rozhodovaciemu procesu modelu. Tradičné metódy hodnotenia významnosti premenných, ako napríklad Gain alebo Weight používané v rámci modelov typu Gradient Boosted Trees, poskytujú globálny prehľad o dôležitosti vstupných atribútov avšak často nezachytávajú nelineárne vzťahy a interakcie medzi premennými. Cieľom tohto príspevku je porovnať výsledky klasickej analýzy významnosti s interpretáciou založenou na metóde SHAP (SHapley Additive exPlanations) v modeli XGBoost. Analýza bola realizovaná na vybranom dataset-e prostredníctvom trénovania XGBoost modelu a následného vyhodnotenia klasických metód feature importance a výpočtu SHAP hodnôt. Výsledky ukazujú, že SHAP poskytuje detailnejší a konzistentnejší pohľad na vplyv jednotlivých premenných pričom zohľadňuje ich interakcie a prispieva k lepšej interpretovateľnosti modelu. Výsledky sú zároveň využiteľné aj vo výučbe predmetov Neživotné poistenie a Aktuárske prediktívne modely, kde podporujú transparentné vysvetlenie vplyvu rizikových faktorov v modeloch typu XGBoost.