Jorn, thanks for feedback. I&#39;ve just tried one of Fon&#39;s amb plugs, and it repeatedly crashed ardour, so i think i&#39;d better fix that before going further.<br><br>As for mike bleed, it&#39;s not a full multimix of pseudo mic blend, but more a &#39;hint&#39; of signal from adjacent instruments. It&#39;s artifical, imho, to completely remove any resonant blend of adjacent instruments, and i already have a modicum of success in terms of &#39;more lifelike&#39; response using this method. I&#39;m also using orchestral samples here, not a live orchestra, so i&#39;m keen to explore just how far we can get down the &#39;real&#39; road, before limitations prevail.<br>
As an aside to this, the VSL orchestral sample library team have already started a project not dissimilar to this, called MIR, so the concept is not just mine, or even theirs... :)<br><br><br>I knew i was kinda hopeful when i asked about cutting an impulse into chunks, so i&#39;m not surprised at all.<br>
<br>Now to get this Amb problem sorted out.<br>Alex.<br><br><br><div class="gmail_quote">On Sun, Jan 4, 2009 at 1:32 PM, Jörn Nettingsmeier <span dir="ltr">&lt;<a href="mailto:nettings@folkwang-hochschule.de">nettings@folkwang-hochschule.de</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div><div></div><div class="Wj3C7c">alex stone wrote:<br>
&gt; Ok, this might be a bit of curly question, and as i don&#39;t know if this<br>
&gt; is possible, either valid or not.<br>
&gt;<br>
&gt; The subject is placement, and pertains to orchestral recording. (My own<br>
&gt; work composed within the box with linuxsampler, from midi in RG, and<br>
&gt; recorded in Ardour.)<br>
&gt;<br>
&gt; I&#39;d like to place my instruments as close as possible to an orchestral<br>
&gt; setup, in terms of recorded sound. That is, once i&#39;ve recorded, i&#39;d like<br>
&gt; to use convolution and other tools to &#39;correctly&#39; place instruments<br>
&gt; within the overall soundscape.<br>
&gt;<br>
&gt;<br>
&gt; example:<br>
&gt;<br>
&gt; With the listener sitting 10 metres back from the stage, and facing the<br>
&gt; conductor (central) my 1st violins are on the listener&#39;s left. Those<br>
&gt; first violins occupy a portion of the overall soundscape from a point<br>
&gt; approximately 2 metres to the left of the conductor, to an outside left<br>
&gt; position, approximately 10 metres from the conductor, and &nbsp;with &nbsp;8 desks<br>
&gt; (2 players per desk) about &nbsp;4 metres deep at the section&#39;s deepest<br>
&gt; point, in the shape of a wedge, more or less. That&#39;s the pan width of<br>
&gt; the section.<br>
&gt;<br>
&gt; Now as i understand it, a metre represents approximately 3ms, so<br>
&gt; calculating the leading edge of the section across the stage as &#39;zero&#39;,<br>
&gt; the first violin players the furthest in depth from the front of the<br>
&gt; stage, should, in theory, (and i know this is approximate only, as i sat<br>
&gt; as a player in orchestras for some years, and understand the instinctive<br>
&gt; timing compensation that goes on) play about 12ms later than those at<br>
&gt; the front. Using the ears, and experimenting, this actually translates<br>
&gt; as about 6ms, before the sound becomes unrealistic, using layered violin<br>
&gt; samples, both small section and solo. (highly subjective i know, but i<br>
&gt; only have my own experience as a player and composer to fall back on here.)<br>
<br>
</div></div>make sure that you are using different samples for each desk if you use<br>
individual delays, otherwise you will introduce comb filtering artefacts.<br>
but i doubt these delays will have any perceptible benefit.<br>
<div class="Ih2E3d"><br>
&gt; A violin has it&#39;s own unique characteristics in distribution of sound<br>
&gt; emanating from the instrument. The player sits facing the conductor, and<br>
&gt; the bulk of the overall sound goes up, at an angle, at more or less<br>
&gt; 30degrees towards the ceiling to a &#39;point&#39; equivalent to almost directly<br>
&gt; over the listener&#39;s right shoulder. Naturally &nbsp;the listener &#39;hears&#39; the<br>
&gt; direct sound most prominently, (both with ears, and the &#39;visual<br>
&gt; perception&#39; he gains from listening with his eyes.) Secondly, the violin<br>
&gt; also sounds, to a lesser degree, downwards, and in varying proportions,<br>
&gt; in a reasonably &#39;spherical&#39; sound creation model, with the possible<br>
&gt; exception of &nbsp;the sound hitting the player&#39;s body, and those in his<br>
&gt; immediate vicinity. (and other objects, like stands, sheet music, etc,<br>
&gt; all playing a part too.)<br>
&gt;<br>
&gt; I&#39;ve experimented with this quite a bit, and the best result seems to<br>
&gt; come from a somewhat inadequate, but acceptable, computational model<br>
&gt; based on using, you guessed it, the orchestral experience ears.<br>
&gt;<br>
&gt; So i take one &#39;hall&#39; impulse, and apply it to varying degrees, mixed<br>
&gt; with as precise a pan model as possible (and i use multiple desks to<br>
&gt; layer with,more or less, so there&#39;s a reasonably accurate depiction of a<br>
&gt; pan placed section, instead of the usual pan sample model of either<br>
&gt; shifting the section with a stereo pan, or the inadequate right channel<br>
&gt; down, left channel up method.)<br>
<br>
</div>phew! ambitious!<br>
<div class="Ih2E3d"><br>
&gt; to make this more complicated (not by intent, i assure you), i&#39;m<br>
&gt; attempting to add a degree of pseudo mike bleed, from my 1st violins,<br>
&gt; into the cellos sitting deeper on the stage, and in reduced amounts to<br>
&gt; the violas and second violins sitting on &nbsp;the other side of the digital<br>
&gt; stage.<br>
&gt;<br>
&gt; All of this is with the intent of getting as as lifelike a sound as<br>
&gt; possible from my digital orchestra.<br>
<br>
</div>why simulate mike bleed? i thought you were after creating a &quot;true&quot;<br>
orchestra sound, not one including all unwanted multi-miking<br>
artefacts... i&#39;d rather concentrate on instruments and room.<br>
<div class="Ih2E3d"><br>
&gt; The questions:<br>
&gt;<br>
&gt; In terms of convolution, , can i &#39;split&#39; a convolution impulse with some<br>
&gt; sort of software device, as to emulate the varying degrees of spherical<br>
&gt; sound from instruments as described above?<br>
<br>
</div>you could get a b-format response from every place in the orchestra<br>
(with all other musicians sitting there, for damping), and then convolve<br>
it with the violin (which would also have to be shoehorned to b-format,<br>
simulating the desired radiation pattern).<br>
but if you have the room and the orchestra, you might as well let them<br>
play your stuff ;)<br>
<div class="Ih2E3d"><br>
&gt; So, one impulse (I use Jconv by default, as it does a great job, far<br>
&gt; better than most gui bloated offerings in the commercial world) that can<br>
&gt; be, by way of sends, and returns, be &#39;split&#39; or manipulated not only in<br>
&gt; terms of length of impulse, but fed as &#39;panned&#39; so as to put more<br>
&gt; impulse &#39;up&#39;, less impulse &#39;down&#39; and just a twitch of impulse &#39;forward&#39;<br>
&gt; of the player, with near enough to none on the sound going back into the<br>
&gt; player.<br>
<br>
</div>i&#39;m not sure i understand 100%, but you might want to look into<br>
ambisonics for that. ardour can do it just fine, all you need to do is<br>
bypass the panners and use fons&#39; AMB plugins instead. as to target<br>
format, you could use UHJ stereo. if you desire 5.1, you might want to<br>
consider working in second order ambisonics.<br>
<div class="Ih2E3d"><br>
&gt; I&#39;ve written this rather clumsily, but i hope some of you experts may<br>
&gt; understand what i&#39;m trying to achieve here.<br>
&gt; Can the impulse be split down it&#39;s middle, separating left from right,<br>
&gt; aurally speaking, and if this is possible, can i split the impulse into<br>
&gt; &#39;wedges&#39; emulating that sphere i wrote of, more or less?<br>
<br>
</div>no, i don&#39;t think so. you will need a spatial impulse response. the<br>
simplest way to obtain one is to use a soundfield microphone (or a<br>
tetramic, for that matter).<br>
<div class="Ih2E3d"><br>
&gt; if there&#39;s a way to do this, then i&#39;m all ears, as my mike bleed<br>
&gt; experiments suffer from a &#39;generic&#39; impulse per section affecting<br>
&gt; everything to the same degree, including the instruments bled in. I<br>
&gt; should note here, this is not about gain, but a wedge of impulse, cut<br>
&gt; out of the overall chunk, that represents a &#39;window&#39; or pan section of<br>
&gt; the whole.<br>
<br>
</div>i still don&#39;t understand why you&#39;re after &quot;mike bleed&quot;.<br>
<div class="Ih2E3d"><br>
&gt; I suppose an analogy for the chunk of impulse idea would be to stretch a<br>
&gt; ribbon across a stage, and cut a metre out of the middle. That metre<br>
&gt; would be the bit i&#39;d use, as a portion of the whole, in an aural<br>
&gt; soundscape, to manipulate, or place, instruments, to a finer degree, in<br>
&gt; the attempt to create a more realistic &#39;3d&#39; effect for the listener.<br>
&gt; That metre along with other cut out sections of the impulse soundscape<br>
&gt; could help me introduce a more....&#39;human&#39; element to a layered<br>
&gt; instrument section.<br>
<br>
</div>yeah, well, *if* we had a way of capturing a sound field completely over<br>
such a vast area, we would all be very happy indeed. it can be recreated<br>
using wave field synthesis or very high order ambisonics, but currently<br>
there is no way of capturing it, other than measuring a set of<br>
individual points in that sound field.<br>
<br>
<br>
hth,<br>
<font color="#888888"><br>
jörn<br>
<br>
<br>
<br>
</font></blockquote></div><br>