int AddSample(FMOD.Sound sound, string name) { if (samples.Contains(sound)) { return(samples.IndexOf(sound)); } // Get properties sound.getLength(out uint length, FMOD.TIMEUNIT.PCMBYTES); sound.getLoopPoints(out uint loop_start, FMOD.TIMEUNIT.PCMBYTES, out uint loop_end, FMOD.TIMEUNIT.PCMBYTES); sound.getLoopCount(out int loopCount); sound.getDefaults(out float frequency, out int priority); // Get sample data sound.@lock(0, length, out IntPtr snd, out IntPtr idc, out uint len, out uint idc2); var pcm8 = new byte[len]; Marshal.Copy(snd, pcm8, 0, (int)len); sound.unlock(snd, idc, len, idc2); short[] pcm16 = pcm8.Select(i => (short)(i << 8)).ToArray(); // Add to file sf2.AddSample(pcm16, name, loopCount == -1, loop_start, (uint)frequency, 60, 0); samples.Add(sound); return(samples.Count - 1); }
int AddWave(int address) { if (savedSamples.Contains(address)) { return(6 + savedSamples.IndexOf(address)); } savedSamples.Add(address); float[] ieee = GBSamples.PCM4ToFloat(address); short[] pcm16 = FloatToPCM16(ieee); return((int)sf2.AddSample(pcm16, string.Format("Wave 0x{0:X7}", address), true, 0, 7040, 69, 0)); }
void AddSamples(MLSSVoiceTable table) { for (int i = 0; i < table.Samples.Length; i++) { var sample = table.Samples[i]; if (sample == null) { continue; } var gSample = sample.GetSample(); byte[] pcmU8 = ROM.Instance.Reader.ReadBytes(gSample.Length, gSample.GetOffset()); short[] pcm16 = PCMU8ToPCM16(pcmU8); addedSamples.Add(sample, (int)sf2.AddSample(pcm16, string.Format("Sample {0}", i), gSample.bLoop, (uint)gSample.LoopPoint, (uint)gSample.Frequency, 60, 0)); } }
private static Dictionary <int, (SampleHeader, int)> AddSamples(Config config, SF2 sf2) { var sampleDict = new Dictionary <int, (SampleHeader, int)>((int)config.SampleTableSize); for (int i = 0; i < config.SampleTableSize; i++) { int ofs = config.Reader.ReadInt32(config.SampleTableOffset + (i * 4)); if (ofs == 0) { continue; } ofs += config.SampleTableOffset; SampleHeader sh = config.Reader.ReadObject <SampleHeader>(ofs); short[] pcm16 = SampleUtils.PCMU8ToPCM16(config.ROM, ofs + 0x10, sh.Length); int sf2Index = (int)sf2.AddSample(pcm16, $"Sample {i}", sh.DoesLoop == 0x40000000, (uint)sh.LoopOffset, (uint)(sh.SampleRate >> 10), 60, 0); sampleDict.Add(i, (sh, sf2Index)); } return(sampleDict); }
private SF2 SoundFundry(AKAO sequencer, AKAO[] sampleCollections) { DLS dls = new DLS(); dls.SetName(FileName + ".dls"); SF2 sf2 = new SF2(); sf2.InfoChunk.Bank = "Vagrant Story SoundFont for " + FileName; sf2.InfoChunk.Products = "Vagrant Story"; sf2.InfoChunk.Tools = "https://github.com/korobetski/Vagrant-Story-Unity-Parser"; sf2.InfoChunk.Designer = "Korobetski Sigfrid"; sf2.InfoChunk.Date = DateTime.Now.ToString(); sf2.InfoChunk.Copyright = "Musics & Samples belong to Hitoshi Sakimoto @ Squaresoft"; sf2.InfoChunk.Comment = string.Concat("This SoundFont was generated by reading raw AKAO format from the original game in SOUND folder.\r", "\nNever forget that musics and samples belongs to SquareEnix, don't use them as your own. Sample collections : ", sampleCollections[0].FileName, ", ", sampleCollections[1].FileName); List <AKAOSample> Samples = new List <AKAOSample>(); // MUSIC024.DAT has no instruments Oo, maybe unfinished work, or development test // we use composer program change to load articulations from WAVE000.DAT the only file where start id = 0 if (sequencer.instruments == null) { foreach (uint id in sequencer.composer.progIDs) { AKAOInstrument instrument = new AKAOInstrument(id, AKAOInstrument.InstrumentType.INSTR_MELODIC); instrument.name = "No instrument " + id; instrument.regions = new AKAORegion[1]; AKAORegion defaultRegion = new AKAORegion(); defaultRegion.articulationId = (byte)id; instrument.regions[0] = defaultRegion; sequencer.instruments = new List <AKAOInstrument>(); sequencer.instruments.Add(instrument); } } if (sequencer.instruments != null) { uint i = 0; foreach (AKAOInstrument instrument in sequencer.instruments) { if (composer.progIDs.Contains(instrument.program) || composer.A1Calls.Contains(instrument.program) || instrument.IsDrum()) { uint midiBank = 0x00000000; if (instrument.IsDrum()) { midiBank = DLS.F_INSTRUMENT_DRUMS; sf2.AddPreset(instrument.name, 0, 128); } else { sf2.AddPreset(instrument.name, (ushort)instrument.program, 0); } sf2.AddPresetBag(); sf2.AddPresetGenerator(SF2Generator.ReverbEffectsSend, new SF2GeneratorAmount { UAmount = (ushort)1000 }); sf2.AddPresetGenerator(SF2Generator.Instrument, new SF2GeneratorAmount { UAmount = (ushort)i }); sf2.AddInstrument(instrument.name); i++; if (instrument.regions.Length > 0) { Lins DSLInstrument = new Lins(midiBank, instrument.program, instrument.name); foreach (AKAORegion region in instrument.regions) { AKAOArticulation articulation = null; AKAO coll = sampleCollections[2]; if (region.articulationId >= 0 && region.articulationId < 32) { // trick for MUSIC024.DAT coll = sampleCollections[1]; articulation = coll.articulations[region.articulationId]; } else if (region.articulationId >= 32 && region.articulationId < 64) { coll = sampleCollections[0]; articulation = coll.articulations[region.articulationId - coll.startingArticulationId]; } else if (region.articulationId >= 64 && region.articulationId < 128) { coll = sampleCollections[1]; if (region.articulationId - coll.startingArticulationId < coll.articulations.Length /* && !instrument.a1*/) { articulation = coll.articulations[region.articulationId - coll.startingArticulationId]; } else { // we check in additional collection //Debug.LogWarning(region.articulationId); coll = sampleCollections[2]; articulation = coll.articulations[region.articulationId - coll.startingArticulationId]; } } if (UseDebug) { Debug.Log(string.Concat("Instrument ", i, " ", instrument.name, " | Region articulation " + region.articulationId + " found in ", coll.FileName)); } if (articulation != null) { articulation.BuildADSR(); region.articulation = articulation; AKAOSample sample = coll.samples[articulation.sampleNum]; if (instrument.IsDrum()) { region.unityKey = (uint)articulation.unityKey + region.lowRange - region.relativeKey; // maybe } else { region.unityKey = articulation.unityKey; } short ft = articulation.fineTune; if (ft < 0) { ft += short.MaxValue; } double freq_multiplier = ((ft * 32) + 0x100000) / (double)0x100000; double cents = (short)(1200 * Math.Log(freq_multiplier, 2)); if (articulation.fineTune < 0) { cents -= 1200; } region.fineTune = (short)cents; sample.loopStart = (uint)(articulation.loopPt * 1.75); sample.unityKey = (byte)region.unityKey; if (!Samples.Contains(sample)) { Samples.Add(sample); } int sampleIDX = Samples.IndexOf(sample); // Making DLS Lrgn reg = new Lrgn(region.lowRange, region.hiRange, 0x00, 0x7F); CKwsmp smp = new CKwsmp((ushort)region.unityKey, region.fineTune, region.attenuation, 1); if (articulation.loopPt != 0) { smp.AddLoop(new Loop(1, (uint)(articulation.loopPt * 1.75f), (uint)(sample.size * 1.75f - articulation.loopPt * 1.75f))); } reg.SetSample(smp); CKart2 iart = new CKart2(); iart.AddPan(0x40); iart.AddADSR(articulation.A, articulation.D, articulation.S, articulation.R, articulation.AT, articulation.RT); reg.AddArticulation(iart); reg.SetWaveLinkInfo(0, 0, 1, region.sampleNum); DSLInstrument.AddRegion(reg); // http://linuxmao.org/SoundFont+specification+SF2 sf2.AddInstrumentBag(); sf2.AddInstrumentGenerator(SF2Generator.KeyRange, new SF2GeneratorAmount { LowByte = region.lowRange, HighByte = region.hiRange }); //sf2.AddInstrumentGenerator(SF2Generator.VelRange, new SF2GeneratorAmount { LowByte = region.lowVel, HighByte = region.hiVel }); // not sure sf2.AddInstrumentGenerator(SF2Generator.VelRange, new SF2GeneratorAmount { LowByte = 0, HighByte = 127 }); /* C'est l'atténuation, en centibels, pour laquelle une note est atténuée en dessous de la valeur maximum prévue. * Si = 0, il n'y a aucune atténuation, la note sera jouée au maximum prévu. * Ex : 60 indique que la note sera jouée à 6 dB en-dessous du maximum prévu pour la note. * Max value = 1440 */ sf2.AddInstrumentGenerator(SF2Generator.InitialAttenuation, new SF2GeneratorAmount { UAmount = (ushort)(region.attenuation / 10) }); //sf2.AddInstrumentGenerator(SF2Generator.ReverbEffectsSend, new SF2GeneratorAmount { Amount = 1000 }); sf2.AddInstrumentGenerator(SF2Generator.Pan, new SF2GeneratorAmount { Amount = region.pan }); sf2.AddInstrumentGenerator(SF2Generator.SampleModes, new SF2GeneratorAmount { UAmount = (articulation.loopPt != 0) ? (ushort)1 : (ushort)0 }); sf2.AddInstrumentGenerator(SF2Generator.OverridingRootKey, new SF2GeneratorAmount { UAmount = (ushort)region.unityKey }); sf2.AddInstrumentGenerator(SF2Generator.DelayVolEnv, new SF2GeneratorAmount { Amount = (short)short.MinValue }); /* En timecents absolu, c'est la durée, depuis la fin du délai de l'enveloppe de volume jusqu'au point où la valeur de l'enveloppe de volume atteint son apogée. * Une valeur de 0 indique 1 seconde. Une valeur négative indique un temps inférieur à une seconde, une valeur positive un temps supérieur à une seconde. * Le nombre le plus négatif (-32768) indique conventionnellement une attaque instantanée. * Ex : un temps d'attaque de 10 ms serait 1200log2 (.01) = -7973. * En musique, le logarithme binaire intervient dans la formule permettant de déterminer la valeur en cents d’un intervalle. * Un cent, ou centième de demi-ton au tempérament égal, vaut 1200 fois le logarithme binaire du rapport de fréquence des sons concernés. * 546 * 60 ~= short.MaxValue */ sf2.AddInstrumentGenerator(SF2Generator.AttackVolEnv, new SF2GeneratorAmount { Amount = (short)(1200 * Math.Log(articulation.A, 2)) }); sf2.AddInstrumentGenerator(SF2Generator.HoldVolEnv, new SF2GeneratorAmount { Amount = (short)0 }); /* C'est le temps, en timecents absolus, pour une variation de 100% de la valeur de l'enveloppe du volume pendant la phase de décroissance. * Pour l'enveloppe de volume, la décroissance tend linéairement vers le niveau de maintien, ce qui provoque un changement de dB constant pour chaque unité de temps. * Si le niveau de maintien = -100dB, le temps de décroissance de l'enveloppe de volume = temps de la phase de décroissance. * Une valeur de 0 indique 1 seconde de temps de décroissance pour un niveau zéro. Une valeur négative indique un temps inférieur à une seconde, * une valeur positive un temps supérieur à une seconde. * Ex : un temps de décroissance de 10 msec serait 1200log2 (.01) = -7973.*/ sf2.AddInstrumentGenerator(SF2Generator.DecayVolEnv, new SF2GeneratorAmount { Amount = (short)(1200 * Math.Log(articulation.D, 2)) }); /* C'est le taux de la diminution, exprimé en centibels, pour laquelle l'enveloppe de volume décroît au cours de la phase de décroissance. * Pour l'enveloppe de volume, le niveau d'atténuation du sustain est mieux exprimé en centibels. Une valeur de 0 indique que le niveau est maximum. * Une valeur positive indique une décroissance au niveau correspondant. Les valeurs inférieures à zéro doivent être interprétés comme zéro; * conventionnellement 1000 indique une atténuation complète. * Ex : un niveau de soutien qui correspond à une valeur absolue de 12 dB en dessous du pic serait 120.*/ sf2.AddInstrumentGenerator(SF2Generator.SustainVolEnv, new SF2GeneratorAmount { Amount = (short)(articulation.S) }); /* C'est la durée, en timecents absolu, pour une variation de 100% de la valeur de l'enveloppe du volume pendant la phase de libération (release). * Pour l'enveloppe de volume, la phase de libération tend linéairement vers zéro depuis la niveau en cours, * ce qui provoque un changement en dB constant pour chaque unité de temps. * Si le niveau actuel est maximum, la durée du release de l'enveloppe de volume sera le temps de libération jusqu'à ce que 100 dB d'atténuation soit atteint. * Une valeur de 0 indique 1 seconde de temps de décroissance pour finir complètement. Une valeur négative indique un temps inférieur à une seconde, * une valeur positive un temps de plus d'une seconde. * Ex : un temps de libération de 10 msec serait 1200log2 (.01) = -7973. */ sf2.AddInstrumentGenerator(SF2Generator.ReleaseVolEnv, new SF2GeneratorAmount { Amount = (short)(1200 * Math.Log(articulation.R, 2)) }); /* Décalage de la hauteur, en cents, qui sera appliqué à la note. * Il est additionnel à coarseTune. Une valeur positive indique que le son est reproduit à une hauteur plus élevée, une valeur négative indique une hauteur inférieure. * Ex : une valeur finetune = -5 provoquera un son joué cinq cents plus bas. */ sf2.AddInstrumentGenerator(SF2Generator.FineTune, new SF2GeneratorAmount { Amount = (short)(region.fineTune) }); sf2.AddInstrumentGenerator(SF2Generator.SampleID, new SF2GeneratorAmount { UAmount = (ushort)sampleIDX }); } } dls.AddInstrument(DSLInstrument); } } } } if (Samples.Count > 0) { foreach (AKAOSample AKAOsmp in Samples) { WAV nw = AKAOsmp.ConvertToWAV(); nw.SetName(AKAOsmp.name); nw.Riff = false; dls.AddWave(nw); short[] pcm = AKAOsmp.WAVDatas.ToArray(); sf2.AddSample(pcm, AKAOsmp.name, (AKAOsmp.loopStart > 0), AKAOsmp.loopStart, 44100, AKAOsmp.unityKey, 0); } } if (bDLS) { ToolBox.DirExNorCreate("Assets/Resources/Sounds/DLS/"); dls.WriteFile("Assets/Resources/Sounds/DLS/" + FileName + ".dls"); } if (bSF2) { ToolBox.DirExNorCreate("Assets/Resources/Sounds/SF2/"); sf2.Save("Assets/Resources/Sounds/SF2/" + FileName + ".sf2"); } return(sf2); }