root/library/bdm/estim/mixtures.cpp @ 735

Revision 735, 3.8 kB (checked in by smidl, 14 years ago)

Initial implementation of mixef.init() -- does not work due to missing to_setting

  • Property svn:eol-style set to native
Line 
1#include <vector>
2#include "mixtures.h"
3
4namespace bdm {
5
6
7void MixEF::init ( BMEF* Com0, const mat &Data, const int c ) {
8        //prepare sizes
9        Coms.set_size ( c );
10        n = c;
11        weights.set_parameters ( ones ( c ) ); //assume at least one observation in each comp.
12        //est will be done at the end
13        //
14        int i;
15        int ndat = Data.cols();
16        //Estimate  Com0 from all data
17        Coms ( 0 ) = Com0->_copy_();
18//      Coms(0)->set_evalll(false);
19        Coms ( 0 )->bayes_batch ( Data );
20        // Flatten it to its original shape
21        Coms ( 0 )->flatten ( Com0 );
22
23        //Copy it to the rest
24        for ( i = 1; i < n; i++ ) {
25                //copy Com0 and create new rvs for them
26                Coms ( i ) =  Coms ( 0 )->_copy_ ( );
27        }
28        //Pick some data for each component and update it
29        for ( i = 0; i < n; i++ ) {
30                //pick one datum
31                int ind = floor ( ndat * UniRNG.sample() );
32                Coms ( i )->bayes ( Data.get_col ( ind ), empty_vec );
33                //flatten back to oringinal
34                Coms ( i )->flatten ( Com0 );
35        }
36
37        //est already exists - must be deleted before build_est() can be used
38        delete est;
39        build_est();
40}
41
42void MixEF::bayes_batch ( const mat &data , const mat &cond, const vec &wData ) {
43        int ndat = data.cols();
44        int t, i, niter;
45        bool converged = false;
46
47        multiBM weights0 ( weights );
48
49        Array<BMEF*> Coms0 ( n );
50        for ( i = 0; i < n; i++ ) {
51                Coms0 ( i ) = ( BMEF* ) Coms ( i )->_copy_();
52        }
53
54        niter = 0;
55        mat W = ones ( n, ndat ) / n;
56        mat Wlast = ones ( n, ndat ) / n;
57        vec w ( n );
58        vec ll ( n );
59        // tmp for weights
60        vec wtmp = zeros ( n );
61        int maxi;
62        double maxll;
63        //Estim
64        while ( !converged ) {
65                // Copy components back to their initial values
66                // All necessary information is now in w and Coms0.
67                Wlast = W;
68                //
69                //#pragma omp parallel for
70                for ( t = 0; t < ndat; t++ ) {
71                        //#pragma omp parallel for
72                        for ( i = 0; i < n; i++ ) {
73                                ll ( i ) = Coms ( i )->logpred ( data.get_col ( t ) );
74                                wtmp = 0.0;
75                                wtmp ( i ) = 1.0;
76                                ll ( i ) += weights.logpred ( wtmp );
77                        }
78
79                        maxll = max ( ll, maxi );
80                        switch ( method ) {
81                        case QB:
82                                w = exp ( ll - maxll );
83                                w /= sum ( w );
84                                break;
85                        case EM:
86                                w = 0.0;
87                                w ( maxi ) = 1.0;
88                                break;
89                        }
90
91                        W.set_col ( t, w );
92                }
93
94                // copy initial statistics
95                //#pragma omp parallel for
96                for ( i = 0; i < n; i++ ) {
97                        Coms ( i )-> set_statistics ( Coms0 ( i ) );
98                }
99                weights.set_statistics ( &weights0 );
100
101                // Update statistics
102                // !!!!    note  wData ==> this is extra weight of the data record
103                // !!!!    For typical cases wData=1.
104                for ( t = 0; t < ndat; t++ ) {
105                        //#pragma omp parallel for
106                        for ( i = 0; i < n; i++ ) {
107                                Coms ( i )-> bayes_weighted ( data.get_col ( t ), empty_vec, W ( i, t ) * wData ( t ) );
108                        }
109                        weights.bayes ( W.get_col ( t ) * wData ( t ) );
110                }
111
112                niter++;
113                //TODO better convergence rule.
114                converged = ( niter > 10 );//( sumsum ( abs ( W-Wlast ) ) /n<0.1 );
115        }
116
117        //Clean Coms0
118        for ( i = 0; i < n; i++ ) {
119                delete Coms0 ( i );
120        }
121}
122
123void MixEF::bayes ( const vec &data, const vec &cond=empty_vec ) {
124
125};
126
127void MixEF::bayes ( const mat &data, const vec &cond=empty_vec ) {
128        this->bayes_batch ( data, cond, ones ( data.cols() ) );
129};
130
131
132double MixEF::logpred ( const vec &yt ) const {
133
134        vec w = weights.posterior().mean();
135        double exLL = 0.0;
136        for ( int i = 0; i < n; i++ ) {
137                exLL += w ( i ) * exp ( Coms ( i )->logpred ( yt ) );
138        }
139        return log ( exLL );
140}
141
142emix* MixEF::epredictor ( ) const {
143        Array<shared_ptr<epdf> > pC ( n );
144        for ( int i = 0; i < n; i++ ) {
145                pC ( i ) = Coms ( i )->epredictor ( );
146        }
147        emix* tmp;
148        tmp = new emix( );
149        tmp->set_parameters ( weights.posterior().mean(), pC );
150        return tmp;
151}
152
153void MixEF::flatten ( const BMEF* M2 ) {
154        const MixEF* Mix2 = dynamic_cast<const MixEF*> ( M2 );
155        bdm_assert_debug ( Mix2->n == n, "Different no of coms" );
156        //Flatten each component
157        for ( int i = 0; i < n; i++ ) {
158                Coms ( i )->flatten ( Mix2->Coms ( i ) );
159        }
160        //Flatten weights = make them equal!!
161        weights.set_statistics ( & ( Mix2->weights ) );
162}
163}
Note: See TracBrowser for help on using the browser.