<html><head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8"><style id="css_styles"> 
blockquote.cite { margin-left: 5px; margin-right: 0px; padding-left: 10px; padding-right:0px; border-left: 1px solid #cccccc }
blockquote.cite2 {margin-left: 5px; margin-right: 0px; padding-left: 10px; padding-right:0px; border-left: 1px solid #cccccc; margin-top: 3px; padding-top: 0px; }
a img { border: 0px; }
li[style='text-align: center;'], li[style='text-align: center; '], li[style='text-align: right;'], li[style='text-align: right; '] {  list-style-position: inside;}
body { font-family: Segoe UI; font-size: 12pt;   } 
.quote { margin-left: 1em; margin-right: 1em; border-left: 5px #ebebeb solid; padding-left: 0.3em; }
 </style>
</head>
<body><span style="background-color:rgba(0,0,0,0);">Welcome to the </span>IDA<span style="background-color:rgba(0,0,0,0);"> </span>Machine<span style="background-color:rgba(0,0,0,0);"> </span>Learning<span style="background-color:rgba(0,0,0,0);"> </span>Seminar on Wednesday, March 24, 15:15<div><br></div><div><b>Tom Rainforth</b>, University of Oxford, UK</div><div><a href="http://csml.stats.ox.ac.uk/people/rainforth/">http://csml.stats.ox.ac.uk/people/rainforth/</a></div><div><br></div><div><b>Target Aware Bayesian Inference: How to Beat Optimal Conventional Estimators</b><br><i>Abstract:</i> Standard approaches for Bayesian inference focus solely on approximating the posterior distribution. Typically, this approximation is, in turn, used to calculate expectations for one or more target functions--a computational pipeline that is inefficient when the target function(s) are known upfront. We address this inefficiency by introducing a framework for target-aware Bayesian inference (TABI) that estimates these expectations directly. While conventional Monte Carlo estimators have a fundamental limit on the error they can achieve for a given sample size, our TABI framework is able to breach this limit; it can theoretically produce arbitrarily accurate estimators using only three samples, while we show empirically that it can also breach this limit in practice. We utilize our TABI framework by combining it with adaptive importance sampling approaches and show both theoretically and empirically that the resulting estimators are capable of converging faster than the standard O(1/N) Monte Carlo rate, potentially producing rates as fast as O(1/N^2). We further combine our TABI framework with amortized inference methods, to produce a method for amortizing the cost of calculating expectations. Finally, we show how TABI can be used to convert any marginal likelihood estimator into a target aware inference scheme and demonstrate the substantial benefits this can yield.<br><br>Based on the paper of the same name by Rainforth, Golinski, Wood, and Zaidi, published in the Journal of Machine Learning Research 2020 and "Amortized Monte Carlo Integration" by Golinski, Wood, and Rainforth, ICML 2019 (Best Paper Honorable Mention).</div><div><br></div><div><i style="font-size: 12pt;">Zoom link:</i><span> </span><a href="https://liu-se.zoom.us/j/65907932927?pwd=Mld2c2Q4MFh4OU5LVStPUXBDSU43QT09" style="font-size: 12pt;">https://liu-se.zoom.us/j/65907932927?pwd=Mld2c2Q4MFh4OU5LVStPUXBDSU43QT09</a></div><div><i>Meeting ID:</i> 659 0793 2927<br><i>Passcode:</i> 829609<br><br></div><div><div style="background-color:rgba(0,0,0,0);">-------<br>The list of future seminars in the series is available at <a href="http://www.ida.liu.se/research/machinelearning/seminars/">http://www.ida.liu.se/research/machinelearning/seminars/</a>.<br><br></div><div style="background-color:rgba(0,0,0,0);">Welcome!​<br>IDA Machine Learning Group</div></div></body></html>