root/library/bdm/estim/mixtures.cpp @ 682

Revision 682, 3.8 kB (checked in by mido, 15 years ago)

bayesB renamed to bayes_batch

  • Property svn:eol-style set to native
Line 
1#include <vector>
2#include "mixtures.h"
3
4namespace bdm {
5
6
7void MixEF::init ( BMEF* Com0, const mat &Data, int c ) {
8        //prepare sizes
9        Coms.set_size ( c );
10        n = c;
11        weights.set_parameters ( ones ( c ) ); //assume at least one observation in each comp.
12        //est will be done at the end
13        //
14        int i;
15        int ndat = Data.cols();
16        //Estimate  Com0 from all data
17        Coms ( 0 ) = Com0->_copy_();
18//      Coms(0)->set_evalll(false);
19        Coms ( 0 )->bayes_batch ( Data );
20        // Flatten it to its original shape
21        Coms ( 0 )->flatten ( Com0 );
22
23        //Copy it to the rest
24        for ( i = 1; i < n; i++ ) {
25                //copy Com0 and create new rvs for them
26                Coms ( i ) =  Coms ( 0 )->_copy_ ( );
27        }
28        //Pick some data for each component and update it
29        for ( i = 0; i < n; i++ ) {
30                //pick one datum
31                int ind = floor ( ndat * UniRNG.sample() );
32                Coms ( i )->bayes ( Data.get_col ( ind ), empty_vec );
33                //flatten back to oringinal
34                Coms ( i )->flatten ( Com0 );
35        }
36
37        //est already exists - must be deleted before build_est() can be used
38        delete est;
39        build_est();
40
41}
42
43void MixEF::bayes_batch ( const mat &data , const mat &cond, const vec &wData ) {
44        int ndat = data.cols();
45        int t, i, niter;
46        bool converged = false;
47
48        multiBM weights0 ( weights );
49
50        Array<BMEF*> Coms0 ( n );
51        for ( i = 0; i < n; i++ ) {
52                Coms0 ( i ) = ( BMEF* ) Coms ( i )->_copy_();
53        }
54
55        niter = 0;
56        mat W = ones ( n, ndat ) / n;
57        mat Wlast = ones ( n, ndat ) / n;
58        vec w ( n );
59        vec ll ( n );
60        // tmp for weights
61        vec wtmp = zeros ( n );
62        int maxi;
63        double maxll;
64        //Estim
65        while ( !converged ) {
66                // Copy components back to their initial values
67                // All necessary information is now in w and Coms0.
68                Wlast = W;
69                //
70                //#pragma omp parallel for
71                for ( t = 0; t < ndat; t++ ) {
72                        //#pragma omp parallel for
73                        for ( i = 0; i < n; i++ ) {
74                                ll ( i ) = Coms ( i )->logpred ( data.get_col ( t ) );
75                                wtmp = 0.0;
76                                wtmp ( i ) = 1.0;
77                                ll ( i ) += weights.logpred ( wtmp );
78                        }
79
80                        maxll = max ( ll, maxi );
81                        switch ( method ) {
82                        case QB:
83                                w = exp ( ll - maxll );
84                                w /= sum ( w );
85                                break;
86                        case EM:
87                                w = 0.0;
88                                w ( maxi ) = 1.0;
89                                break;
90                        }
91
92                        W.set_col ( t, w );
93                }
94
95                // copy initial statistics
96                //#pragma omp parallel for
97                for ( i = 0; i < n; i++ ) {
98                        Coms ( i )-> set_statistics ( Coms0 ( i ) );
99                }
100                weights.set_statistics ( &weights0 );
101
102                // Update statistics
103                // !!!!    note  wData ==> this is extra weight of the data record
104                // !!!!    For typical cases wData=1.
105                for ( t = 0; t < ndat; t++ ) {
106                        //#pragma omp parallel for
107                        for ( i = 0; i < n; i++ ) {
108                                Coms ( i )-> bayes_weighted ( data.get_col ( t ), empty_vec, W ( i, t ) * wData ( t ) );
109                        }
110                        weights.bayes ( W.get_col ( t ) * wData ( t ) );
111                }
112
113                niter++;
114                //TODO better convergence rule.
115                converged = ( niter > 10 );//( sumsum ( abs ( W-Wlast ) ) /n<0.1 );
116        }
117
118        //Clean Coms0
119        for ( i = 0; i < n; i++ ) {
120                delete Coms0 ( i );
121        }
122}
123
124void MixEF::bayes ( const vec &data, const vec &cond=empty_vec ) {
125
126};
127
128void MixEF::bayes ( const mat &data, const vec &cond=empty_vec ) {
129        this->bayes_batch ( data, cond, ones ( data.cols() ) );
130};
131
132
133double MixEF::logpred ( const vec &yt ) const {
134
135        vec w = weights.posterior().mean();
136        double exLL = 0.0;
137        for ( int i = 0; i < n; i++ ) {
138                exLL += w ( i ) * exp ( Coms ( i )->logpred ( yt ) );
139        }
140        return log ( exLL );
141}
142
143emix* MixEF::epredictor ( ) const {
144        Array<shared_ptr<epdf> > pC ( n );
145        for ( int i = 0; i < n; i++ ) {
146                pC ( i ) = Coms ( i )->epredictor ( );
147        }
148        emix* tmp;
149        tmp = new emix( );
150        tmp->set_parameters ( weights.posterior().mean(), pC );
151        return tmp;
152}
153
154void MixEF::flatten ( const BMEF* M2 ) {
155        const MixEF* Mix2 = dynamic_cast<const MixEF*> ( M2 );
156        bdm_assert_debug ( Mix2->n == n, "Different no of coms" );
157        //Flatten each component
158        for ( int i = 0; i < n; i++ ) {
159                Coms ( i )->flatten ( Mix2->Coms ( i ) );
160        }
161        //Flatten weights = make them equal!!
162        weights.set_statistics ( & ( Mix2->weights ) );
163}
164}
Note: See TracBrowser for help on using the browser.