Autor: Gereziher Weldegebriel Adhane
Programa: Doctorat de Tecnologies de la Informació i de Xarxes
Idioma: Anglès
Direcció: Dr. David Masip Rodó i Dr. Mohammad Mahdi Dehshibi
Departament / Institut: Escola de Doctorat
Matèries: Informàtica
Paraules clau: explicabilitat en la IA, transparència, incertesa en els models, selecció de mostres, explicabilitat visual
Àrea de coneixement: Tecnologies de la Informació i de Xarxes
Resum
En aquest treball, proposem tècniques per millorar el rendiment i la transparència de les xarxes neuronals convolucionals (CNN). Introduïm mètodes nous per a la selecció de mostres informatives (ISS), la quantificació de la incertesa i l'explicació visual. Els dos mètodes de l'ISS impliquen l'ús de l'aprenentatge de reforç per filtrar mostres que podrien provocar un sobreajust i un biaix, i emprar una simiulació de Monte Carlo per estimar la incertesa del model durant l'entrenament i la inferència. A més, presentem dues tècniques d'explicabilitat visual: ADVISE, que genera explicacions visuals detallades i quantifica la rellevància de les unitats als mapes de característiques, i UniCAM, que explica la naturalesa opaca dels models basats en la destil·lació del coneixement. Aquests mètodes tenen com a objectiu millorar la precisió, la robustesa, l'equitat i l'explicabilitat del model, contribuint tant a la investigació acadèmica com a la transparència de les CNN en aplicacions de visió per computador.