Till sidans topp

Sidansvarig: Webbredaktion
Sidan uppdaterades: 2012-09-11 15:12

Tipsa en vän
Utskriftsversion

Partially Exchangeable Ne… - Göteborgs universitet Till startsida
Webbkarta
Till innehåll Läs mer om hur kakor används på gu.se

Partially Exchangeable Networks and architectures for learning summary statistics in Approximate Bayesian Computation

Paper i proceeding
Författare Samuel Wiqvist
Pierre-Alexandre Mattei
Umberto Picchini
Jes Frellsen
Publicerad i Proceedings of the 36th International Conference on Machine Learning
Förlag PMLR
Publiceringsår 2019
Publicerad vid Institutionen för matematiska vetenskaper, Tillämpad matematik och statistik
Språk en
Länkar proceedings.mlr.press/v97/wiqvist19...
Ämnesord deep learning; intractable likelihood; Markov data; time series
Ämneskategorier Statistik, data- och systemvetenskap, Matematisk statistik, Statistik, Sannolikhetsteori och statistik

Sammanfattning

We present a novel family of deep neural architectures, named partially exchangeable networks (PENs) that leverage probabilistic symmetries. By design, PENs are invariant to block-switch transformations, which characterize the partial exchangeability properties of conditionally Markovian processes. Moreover, we show that any block-switch invariant function has a PEN-like representation. The DeepSets architecture is a special case of PEN and we can therefore also target fully exchangeable data. We employ PENs to learn summary statistics in approximate Bayesian computation (ABC). When comparing PENs to previous deep learning methods for learning summary statistics, our results are highly competitive, both considering time series and static models. Indeed, PENs provide more reliable posterior samples even when using less training data.

Sidansvarig: Webbredaktion|Sidan uppdaterades: 2012-09-11
Dela:

På Göteborgs universitet använder vi kakor (cookies) för att webbplatsen ska fungera på ett bra sätt för dig. Genom att surfa vidare godkänner du att vi använder kakor.  Vad är kakor?