Inlärning   Poisen Binomial fördel

Original: http://www.cs.columbia.edu/~rocco/papers/stoc12pbd.html

C. Daskalakis och I. Diakonikolas och R. Servedio.
44th Annual Symposium om Theory of Computing (STOC), 2012.
Sammanfattning:
Vi anser att en grundläggande problem i oövervakad inlärning: lära en okänd \ emph {Poisson Binomialfördelning}. En Poisson Binomialfördelning (PBD) över $ \ {0,1, \ dots, n \} $ är fördelningen av en summa $ X = x_1 + \ cdots + X_n $ av $ n $ oberoende Bernoulli stokastiska variabler som kan ha godtycklig potentiellt icke lika, förväntningar. Dessa fördel först studerades av S. Poisson 1837 \ cite {Poisson: 37} och är en naturlig $ n $ PARAMETER generalisering av det välbekanta Binomialfördelning. Vi arbetar i en ram där individen ges tillgång till oberoende drar från distribution och måste (med hög sannolikhet) utgång en hypotes fördelning som har totala variationen avstånd högst $ \ eps $ från okända målet PBD. Överraskande, innan vårt arbete denna grundläggande inlärningsproblem var dåligt kända, och kända resultat för det var långt ifrån optimala.

Vi bosätta huvudsak komplexiteten av inlärningsproblem för denna grundläggande klass av distributioner. Som våran resultat ger vi en mycket effektiv algoritm som lär sig att $ \ eps $ -accuracy använder $ \ tilde {O} (1 \ / eps ^ 3) $ prover \ emph {oberoende av $ n $}. Gångtiden av algoritmen är \ emph {quasilinear} i storleken på dess indata, dvs $ \ tilde {O} (\ log (n) / \ eps ^ 3) $ bit-operationer (observera att varje dragning från distributionen är en $ \ log (n) $ – bit string). Detta är nästan optimal eftersom någon algoritm måste använda $ \ Omega (1 / \ eps ^ 2) $ prover. Vi ger också positiva och negativa resultat för vissa utvidgningar av detta lärande problem.

pdf konferens version

pdf av den fullständiga versionen