Bayesian machine learning

Artikeln introducerar Bayesiansk maskininlärning genom att kontrastera den med frequentistiska metoder, där Bayesiansk sannolikhet ses som ett mått på tro och är subjektiv, medan frequentistisk sannolikhet är objektiv och baserad på tidigare händelser. Kärnan i Bayesiansk inferens är att uppdatera en initial tro (Prior) med ny data för att få en uppdaterad tro (Posterior) med hjälp av Bayes sats, vilket används för att härleda Modellparametrar. Två huvudsakliga inferensmetoder inom Bayesiansk maskininlärning är Monte Carlo-sampling (anses vara guldstandard men är långsam) och variationsinferens (snabbare men mindre exakt och Modellspecifik). Bayesianska metoder kan delas in i statistisk Modellering, som är lämplig för små och värdefulla datamängder där osäkerhetskvantifiering är viktig, och probabilistisk maskininlärning, som hanterar större datamängder och inkluderar generativa modeller som Latent Dirichlet Allocation (LDA) och icke-parametriska metoder som Gaussiska processer. Koncept som Maximum-Likelihood estimation (MLE) och Maximum A Posteriori (MAP) förklaras som metoder för att estimera Modellparametrar, där MAP tar hänsyn till Priorn.