<p><span style="padding: 3px 10px; border-radius: 5px; color: #ffffff; font-weight: bold; display: inline-block; background-color: #ff0000;">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;External Email - Use Caution&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</span></p><p></p><div dir="ltr"><div class="gmail_default" style="font-family:verdana,sans-serif"><div class="gmail_default">So, how do folks typically go about simulating realistic noise conditions from scratch? Do they just always assume a unit ratio of passband bandwidth : nave? <br></div><div class="gmail_default"><br></div><div class="gmail_default">If I wanted to simulate a particular noise density (sigma_n) with a different ratio of passband bandwidth (B) to nave (nave), could I get away with doing that by scaling my covariance strength from the default values, then using simulate_evoked to reduce the noise for the number of epochs? E.g.</div><div class="gmail_default"><br></div><div class="gmail_default">cov = mne.make_ad_hoc_cov(info)</div><div class="gmail_default">cov[&#39;data&#39;] *= ((sigma_n*np.sqrt(B))/20e-15)**2<br></div><div class="gmail_default">evoked = mne.simulation.simulate_evoked(fwd, stc, info, cov, nave=nave)</div></div></div>