Hier ist mein erster Test der Orchester Bibliothek „Orchestral Essentials 1“ von ProjectSAM, welches für 350 EUR erstaunlich gute Orchester-Sounds bietet.
Mein erstes Hörbeispiel:
Durch die Verwendung der Velocity (Anschlagstärke / Anschlagdynamik) und weiteren Automatisierungsparametern lassen sich klangdynamische und pompös, kraftvoll klingende Orchestereinlagen mit einem episch-realistischen Kino-feeling produzieren.
Verwendete Tools
Cubase 9 Pro (geht aber auch mit jeder anderen DAW)
ProjecSAM Orchestral Essentials 1
CME M-Key Keyboard mit 48 Tasten
Kontakt 5 Player (kostenlos)
Empfehlungen
Empfehlungen zum Kauf
Zunächst würde ich aber erstmal davon abraten, die Soundlibrary direkt bei ProjectSAM zu kaufen, da sich der angezeigte Preis von 299€ aufgrund der exkludierten Mehrwertsteuer im Endeffekt als teurer (355 €) erweist, als das Paket direkt bei einem deutschen Händler zu erwerben. Ich wollte die Bibliothek natürlich sofort nutzen und habe mich daher für die Downloadversion entschieden. Einige Tage später wollte ich dann doch die Box mit den USB Stick zu der Software haben, wozu mir 22€ extra berechnet wurden. Inklusive der 19 Prozent MwSt. und der nachträglich gelieferten boxed Version, hat mich die Spaß also 377 € gekostet. Es gab zwar einen 25 € Gutschein zum kauf der Sample Library, den man beim Kauf einer neuer Bibliothek direkt auf der Seite einlösen kann, die generell höheren Preise lassen den Erwerb bei einem Händler allerdings als bessere Alternative erscheinen.
Wer das Feeling beim Auspacken von Software liebt, sollte natürlich eine boxed Version kaufen, die kann man dann in einer relativ hübschen Verpackung im Regal einstauben lassen:
Systemanforderungen -und empfehlungen
Nun sollte man denken, dass so ein VST Instrument auf einem aktuellem Rechner ohne Probleme laufen sollte. Das ist leider nicht so ganz der Fall.. Ich habe mir beispielsweise einen nagelneuen Laptop mit i7-Prozessor im MediaMarkt kauft.
Das gilt nicht ausschließlich für diese Library, da 5400 RPM generell zu langsam für die meisten Sample-Libraries ist.
Eigenbeurteilung
Die Instrumente sind zwar nicht immer einzeln anwählbar, aber in Ihrer Aufnahmenform bilden sie ein sehr gutes Setup „Orchestergraben“ wie auf dem Screenshot unten dargestellt, der unverändert übernommen werden kann und ein absolutes Orchestererlebnis garantiert.
Nach der Installation von Sennheisers Drummica (bzw. Kontakt 5 Player) wird unter Cubase 9 Pro der Kontakt Player 5 nicht als Auswahl angezeigt. Diesen muss man auswählen, um Kontakt 5 Player Instrumente (z.B. Drummica) zu nutzen.
After the installation of Sennheisers DrumMic’a (specifically Kontakt Player 5) the Kontakt Player is not listed in the VST Instruments section.
Analysis – Analyse
Die Kontakt 5 Player Installation hat ein 64 Bit Verzeichnis mit den DLL’s angelegt. Die DLL’s wurden weder in VST Verzeichnisse kopiert noch wurde der neue Kontakt 5 Player Pfad als VST Verzeichnis definiert.
Anstelle die DLL’s in ein VST-Verzeichnis zu kopieren, legen wir den Pfad als neuen VST-Plugin-Pfad an.
Instead of copying the DLL files in a VST directory, we will create this folder as new VST plugin path.
Lösung – Solution
Unter „Geräte->Plug In Manager“ fügen wir die Kontakt 5 Player DLL’s hinzu, indem wir den Pfad „C:\Program Files\Native Instruments\VSTPlugins 64 bit“ anlegen. Nun wird Kontakt 5 Player gefunden.
Anmerkung: Sollte es Probleme beim Upgrade auf die neue Kontakt 5 Player Version geben (Download fehlgeschlagen im Service Center), kann man die neuste Version einfach von der Native Instruments Website runterladen und neu installieren. DrumMic’a Libraries sind danach in der neuen Kontakt 5 Player Version auswählbar.
Under „Devices->Plug In Manager“ we add the Kontakt 5 Player DLL path as new VST directory „C:\Program Files\Native Instruments\VSTPlugins 64 bit“. After that Kontakt 5 Player will be found.
In diesem Artikel dokumentiere ich meine ersten Erkenntnisse, die ich als Informatiker, Musiker und Cubase-Benutzer bei der Entwicklung von VST Plugins in C++ mache. Der Artikel wirkt daher sehr Ich-bezogen, da ich mich auf meinen eigenen Explorations-Lerntyp konzentriere. Ich bin allerdings kein Egozentriker :-/ …
Vorwort
Als musik- und programmierbegeisterterter DAW-Nutzer (ich bin Cubase Fan), fehlt einem oft noch der Draht zu der eigentlichen Audiosignalverarbeitung, die sich durch (Hall-/Echo-/Sustain-…) Effekt-Algorithmen und Heuristken manifestiert und dem eigentlich Werkzeug das Leben einhaucht, dass es benötigt um eine Audioverarbeitungsaufgabe mit mathematischen Modellen zu erfüllen.
Es ist mir als Informatiker bewusst, dass digitale Signale über eine Soundkarte gesendet werden, um dann über einen A/D-Wandler im analogen, physischen Raum Schalldruckschwankungen über Lautsprechermembranen zu erreichen. Ich kenne WAV-Dateien, und weiß dass diese in unterschiedlichen Sample-Raten (44100 Hz, 22050 Hz, 48000 Hz, 96000 Hz… [Samples/Sekunde]) und Auflösungen (z.B. 16 Bit, 24 Bit, 32 Bit float) existieren.
Als Cubase-Nutzer kenne ich die ASIO-Einstellungen (Menü Geräte –> Geräte konfigurieren) und habe bereits den Parameter Buffer Size bemerkt, welcher sich proportional auf die Eingangs- und Ausgangslatenzen, sowie reziprok auf meine CPU-Auslastung auswirkt.
Als Musiker weiß ich geringe Latenzzeiten natürlich zu schätzen :-). Wer kann schon ein Instrument mit dem richtigen Timing auf den Takt einspielen, wenn er das akustische Ergebnis verzögert hört.
Nach dem Artikel Rechenlast beim Mixen verringern aus der c’t musik kreativ 2016 – S. 113 splittet man aufgrund dieses Buffers die Aufnahme in 3 Teile:
Aufnahmephase: Alle komplexen INSERT-Effekte rausnehmen,kleine Sample Buffer einstellen, alle Spuren in Mono Aufnehmen die nicht zwingend Stereo sein müssen (Gesang, Kick, Bass….). Der Mix wird hierdurch auch transparenter, wenn man die Mono-Spuren im Nachgang im Stereopanorama verteilt.
Masteringphase: Rohmix auf Stereospur mit 24-Bit Wortbreite rendern, hohen Sample-Buffereinstellen, so dass man die Masteringeffektkette wieder auf 96 khz fahren kann.
VST Insert-Effekte
Das Grundgerüst
Nachdem ich nun mit dem WDL-OL Framework von Oli Larkin und Visual Studio 2015 ein kompilierfähiges C++-Grundgerüst dank des Tutorials von Martin Finke erzeugt hatte, bemerkte ich schnell den Anwendungsbereich der Signalverarbeitung, der sich für mich anfänglich unkompliziert durch Probieren und Testen offenbaren sollte. Dabei machte ich ein paar (für den Profi triviale) Feststellungen, die ich hier niederschreiben möchte.
Wie sieht nun ein INSERT-Effekt in C++ aus? Was bekomme ich von der DAW von außen geliefert? Was kann ich damit machen? Wie gebe ich es an die DAW zurück?
In C++ passiert bei einem INSERT-Effekt alles in der Funktion „ProcessDoubleReplacing“, die als Übergabeparameter
die Amplitudenwerte des zu bearbeitenden Signals (*input)
die Amplitudenwerte des bearbeiteten Signals (*output)
die Puffergröße der ASIO-Einstellungen (hier 512)
als Zeiger erhält. Da diese Zeiger auf den tatsächlichen Wert im output-Buffer zeigen, kann die Funktion ohne Rückgabeparameter auskommen und wird VOID deklariert.
Digitale Verzerrung
Einer der einfachsten INSERT Effekte ist die digitale Verzerrung, bei der lediglich die Amplituden abgeschnitten werden müssen. Im Gegensatz zu einer weichen „analogen“ Verzerrung, wie sie durch die Röhren eine Gitarrenverstärkers statt finden kann und durch die Klangcharakteristik eines hart aufgehängten Lautsprechers in ihrer „Wärme“ abgerundet wird, legt die digitale Verzerrung lediglich durch das Abschneiden von Amplituden (auch Clipping genannt) wert auf Distortion / Verzerrung um jeden Preis.
Ein Gitarrenröhrenverstärker fügt dem Signal zunehmend geradzahlige Harmonische (Obertöne) zu und das Signal wird zunehmend weich begrenzt (soft clipping – Wärme).
Bei der digitalen Verzerrung nähern wir uns einer Rechteckform des Signals an (hard clipping – Digitale Verzerrung).
Links: Hard-Clipping (Digitale Verzerrung) Rechts: Soft-Clipping (Wie bei einer Röhre)
Der Hard-Clipping-Algorithmus (links) flacht also nicht wie rechts die Spitzen ab sondern nimmt einfach den überschreitenden Wert als gegebenes Maximum hin. Programmiert sieht das folgendermaßen aus:
mThreshold: Beinhaltet einen Wert zwischen 0 und 1, der mit einem Regler eingestellt wurde.
fmin(): Gibt hier den input-Amplitudenwert zurück, es sei denn mThreshold wird überschritten – dann wird mThreshold zurückgegeben.
fmax(): Gibt den input-Amplitudenwert zurück, es sei den mThreshold wird unterschritten, dann wird -mThreshold zurückgegeben.
Oszillation auf die Welle „draufmodulieren“
Ich schrieb eine Klasse „Oscillator.cpp“, die eine Sinus- bzw. Cosinusschwingung generierte. Zunächst dachte ich, dass das simple „addieren“ einer Welle auf die andere eine völlig andere Klangcharakteristik erzeugen würde…. aber es erzeugte eher etwas wie das „Zusammenmischen“ von zwei Signalquellen, so als ob man ein Signal mit dem Mischpult in das andere „reindreht“. Wenn ich so recht drüber nachdenke kann ein Lautsprecher ja auch nur „eine“ Welle erzeugen… diese Welle muss sich aber je Signalquelle unterscheiden… Man erreicht also das „Mixen“ mehrerer Signalquellen durch das aufaddieren von Schwingungen. Und an dieser Stelle wird einem auch klar, dass eine natürliche Schwingung, beispielsweise der Ton eines Instrumentes, aus mehreren Teilschwingungen besteht und nur durch unsere Erfahrung als zwei oder mehrere unterschiedliche Signalquellen interpretiert werden kann. So hat zum Beispiel bei einem Schlagzeug die Bass-Drum einen hohen „Klick-Anteil“, einen druckbringenden „Körper-Anteil“ und einen tiefen „Bass-Anteil“, den man über einen Equalizer separieren kann, und der sich alleinstehend völlig anders anhört.
Phasenauslöschung: Wenn sich Wellen gegenseitig auslöschen
Ich richtete den linken und den rechten Kanal nun aufeinander und dachte dass sich das „zugemischte“ Signal durch die 180 Grad Phasenverschiebung (um PI) vollständig auslöschen müsste. In Wirklichkeit wurde es aber nur leiser. Ich vermutete, dass hier die kreisförmige Ausdehnung des Schalls aus den Boxen eine Rolle spielt. Wenn man dies bereits im Rechner macht, ist das Resultat bekanntermaßen Stille.
sin(x)+sin(x+PI)=0;
Der Cosinus ist quasi eine Phasenverschiebung um 90 Grad. In einer DAW könnte dies durch das Verschieben einer Audiospur nach rechts bedeuten.
180 Grad ist dann noch weiter geschoben…
(Bild-Quelle: delamar.de)
Jetzt werden beim Zusammenmischen der beiden Quellen die Amplitudenwerte addiert, wie es im Abschnitt „Oszillation auf die Welle draufmodulieren“ bereits gezeigt wurde. Und genau diese Tatsache führt also zu einer Phasenauslöschung! Eine Phasenauslöschung kann also auch durch die ungünstige Lage von Audiomaterial auf der Zeitachse stattfinden. Wen man das Material ein Stück nach rechts oder links schiebt (natürlich so, dass es nicht merkbar ist) könnte das Resultat auch wieder anders aussehen.
Wenn ich nun die Boxen aufeinander richte erhalte ich tatsächlich Stellungen im Raum, an denen das Signal fast verschwunden ist. Durch die kreisförmige Ausdehnung des Schalls um die Boxen wird es aber nicht vollständig terminiert.
Hier habe ich mein Experiment dokumentiert:
Schalte ich den Cubase Stereo Out Mix auf Mono, indem ich das „Stereo Enhancer“ Plugin in den INSERT-Effekten des Stereo-Outs auf Mono hinzuschalte (links unten ist ein MONO-Button wenn es geladen wurde), ist das Signal wirklich verschwunden bevor es den Computer verlassen hat (Phasenauslöschung bereits Digital).
VST Instrumente
Der Unterschied zu Insert-Effekten
Im Tutorial von Martin Finke wird ein Python-Skript verwendet, um aus den IPlugSamples ein Template für ein neues Projekt zu generieren. Als Grundlage meiner bisherigen Projekte wurde immer das selbe Startprojekt IPlugEffekt verwendet. Meine Vermutung war zunächst, dass jetzt ein anderes Template als Grundlage für ein VST Instrument genutzt wird. Allerdings kann man einen VST Insert Effect mit wenigen Handgriffen in der Quelldatei „ressource.h“ in ein VST Instrument umwandeln.
„0-1 0-2“ bedeutet kein Input und einen Output (Mono) oder kein Input und zwei Outputs.
„PLUG_IS_INST 1“ macht aus dem INSERT Effect endgültig ein Instrument.
Inputs sind bei Instrumenten unnötig, da ein Instrument selber als Signalquelle für den Gesamt-Mix genutzt wird. Die Funktion „ProcessDoubleReplacing“ bekommt als Übergabeparameter allerdings weiter hin die Inputs geliefert. Ich habe noch nicht herausgefunden wofür das gut sein soll ;-).
Inputs sind bei Instrumenten unnötig, da ein Instrument selber als Signalquelle für den Gesamt-Mix genutzt wird. Die Funktion „ProcessDoubleReplacing“ bekommt als Übergabeparameter allerdings weiter hin die Inputs geliefert. Ich habe noch nicht herausgefunden wofür das gut sein soll ;-).
Nach dem Download können Sie das Plugin einfach in Ihr VST3 Verzeichnis kopieren (z.B. C:\Program Files (x86)\Common Files\VST3)
Just copy the VST3 Plugin into your VST3 Directory (i.e. C:\Program Files (x86)\Common Files\VST3 ).
Bei diesem VST3 Plugin handelt es sich um eine einfache digitale Verzerrung.
Der Regler lässt sich von 0 Prozent bis 100 Prozent (links) drehen, je näher man an die 100 Prozent kommt, desto stärker werden die Amplituden abgeschnitten. Bei leiseren Signalen muss man ganz nach links drehen. Am 100 % Anschlag ist allerdings die Welle ausgelöscht :-). Also immer ein paar Cent weiter rechts bleiben und die Lautstärke wieder anheben (diese wird ebenfalls abgeschwächt). Eine automatische Lautstärkenkorrektur findet nicht statt, da die Lautheit durch die Annäherung an ein Rechtecksignal relativ hoch wird, sollte dies nämlich besser individuell eingepegelt werden.
Screenshot: Der Effekt „Distortion -> Hard Digital Distortion“ wurde bei den INSERT-Effekten einer Spur in Steinberg Cubase an erster Stelle ausgewählt und dessen GUI über den „e“-Button hervorgebracht.
Tonhöhen und Intonationen mit z.B. Melodyne oder VariAudio korrigieren
Zischlaufte mit Deesser eleminieren (z.B. SPITFISH oder Fabfilter Pro-C 2)
Einer oder mehrere Kompressoren über die INSERTs in Reihe schalten (Achtung: Gesang hat die größte Dynamik daher können mehrere Kompressoren verwendet werden um unterschiedliches Ansprechverhalten sowie deren Klangfärbung zu kombinieren). Hier wird dafür gesorgt dass sich die Stimme im Mix durchsetzt.
Mix mit dem Equalizer bearbeiten, damit er klarer heraussticht.
Hall (Reverb) kann helfen einen Lead Sänger in den Vordergrund zu rücken. Bei Hall nimmt man die gleiche Klangcharakteristik wie für die üblichen Instrumente, damit es sich nicht anhört als ob diese in einem anderem Raum sind.
Echos (Delays) können bei rythmischen Passagen besser geeignet sein als Hall, da sie den Gesang nicht nur difus streuen, sondern mit SYNC-Optionen im richtigen Tempo den Rythmus unterstützen.
Anschließend wird der Gesang im Mix platziert. Hiermit ist der Platz im Stereo-Panorma gemeint (also wie weit der Sänger links oder rechts angeordnet ist). Ein Lead Sänger kommt für gewöhnlich immer durch die Mitte. Der Gesamtmix (Stereo Out) wird am Besten auf Mono umgeschaltet, dann stellt man die Lautstärke ein. Setzt sich der Gesang aufgrund der Gitarren/Synthesizer-Dichte nicht durch, kann man diese über Sidechain-Kompressoren um 2dB-3dB (in Cubase standard) über Ducking absenken wenn der Gesang einsetzt.
Nun kann man die Refrain-Passagen fetter machen (falls nötig), indem man einen Kompressor und einen leichten Chorus oder ein Plug-In zur Stereo-Verbreiterung in die INSERTs/Returns schaltet. Einen brauchbaren Effekt kann auch das Kopieren des Gesangs auf zwei weitere Spuren mit einer Pitch-Anhebung und -Absenkung um jeweils 8 Cent bringt und die Lautstärke der Spuren langsam in den Mix dreht. Eine Alternative zum Pitchen kann man aber auch die beiden Spuren mit einer kurzen Verzögerung um etwas 20 ms versehen.
Falls der Gesang zu clean ist, kann man mit harmonischer Verzerrung den Rotz reinbringen.
In diesem Artikel möchte ich Google Trends als Auswertungswerkzeug für die Analyse des Musikmarktes vorstellen. Zunächst beobachten wir den Weltmarkt, anschließend schauen wir uns Deutschland an. Zur Verfizierung der Repräsentationsfähigkeit vergleichen wir mit frei zugänglichen Berichten der Musikindustrie.
Statistik Google Trends (weltweit)
Neben den Berichten der Musikindustrie, welche bereits suggerieren, dass Rock die angesagteste Musikrichtung seit Anfang der Zählung (2004) ist, gibt es dank Google Trends auch die Möglichkeit anhand der häufigsten Suchen Trends abzubilden:
Problem
Wie aus der Grafik ersichtlich ist, sinken die Gesamtabfragen, so dass es teilweise schwierig ist die neuen Trends zu erkennen.
Ansatz
Um Trends besser zu analysieren lohnt es sich die Grafik anhand der Gesamtabfragen prozentual zu normalisieren.
Lösung
Durch den CSV Download kann man brauchbare Auswertungen erstellen
Elektronische Tanzmusik (EDM) wäre in einer Portfolio-Analyse eine Cash Cow.
Betrachten wir hingegen den gleichen Trend für Deutschland, so gab es bis 2008 in Deutschland tatsächlich einen Zeitraum, in dem Hip Hop angesagter war als Rockmusik:
Anteilige Änderung
Prozentuale Nachfrage
Verifizierung anhand freier Berichte der Musikindustrie
miz.org
In diesem Bericht lässt sich beispielsweise ebenfalls den Abwärtstrend von Rap / Dance / Hip Hop beobachten, allerdings ist er nicht so stark ersichtlich wie bei Google Trends:
Vermutlich ist die Subkultur Hip-Hop und die Zielgruppe stärker im Internet vertreten. Der absolute Anteil von Rap ist ingesamt niedriger als der von Rock, wobei sich Rock sogar noch hier zusätzlich in Deutsch und Englisch aufteilt.
Die Tanzmusik beinhaltet sowohl die elektronische Tanzmusik als auch die gewöhnliche Disco-Fox-Musik. Durch EDM hat hier ein starker Wandel stattgefunden, wodurch man sogar Helene Fischer diesem Genre zuordnen könnte.
habe ich einen Text geschrieben, welcher wie eineArt Anleitung zum Pimpen des Auspuffsystems ist, damit aus dem Auto flammen schießen.
Der Song (V. 1.0)
Text
Unburnt fuel … has caught fire
in the exhaust system … it’s all haywire
Shooting pipes … rubber kissed him
burning tires … fireflies
(Mehrstimmig wie kissin dynmite)
running free
take your keys
lots of fuel is dumped …
into the …
Refrain
EXHAUST FIRE
What you need to do to make your exhaust shut
is to get rid of your catalytic converter gut
accelerate hard with a wide open throttle
protect your ears and watch how your cuddle
Shoot … Shoot …
YouTube Video
Auf YouTube existieren zahlreiche Videos von Usern, die gerne ihr feuerspuckendes Maschinchen präsentieren möchten.
Idee: Exhaust Flame Video von professionellen YouTube-Quellen zurechtschneiden
Problem: Ist es rechtlich gesehen problematisch Videos von YouTube zurechtzuschneiden?
Lösung: Es ist erlaubt Creative Common Videos im Online Editor von YouTube zu bearbeiten. Der Lizenztyp CC-BY, welcher für alle Videos gilt, die mit CC vom Author/Uploader gekennzeichnet wurden, setzt lediglich Namensnennung vorraus. Downloaden ist als MP4 im Videomanager erlaubt, laut Nutzungsbedingungen von YouTube aber unerwünscht.
In der Vergangenheit habe ich viel über die Vorteile von Kondensatormikrofonen bei Aufnahmen von Gesang gelesen.
Im Internet sah ich einige positive Rezensionen über die Kondensatormikrofone RODE NT1-A, RODE NT2-A, RODE NT-1000 und RODE NT-2000. In Forenbeiträgen wurde das RODE NT-2000 mit besseren Klangeigenschaften anstelle des NT1-A oder NT2-A gepriesen, wobei das NT1-A angeblich bei der Aufnahme von Akkustikgitarren gute charakteristische Eigenschaften aufweisen soll.
Im Special der Zeitschrift KEYS 02/2015 wurde es in einer Übersicht der zehn bezahlbaren Alround-Studio-Arbeitstiere folgendermaßen beschrieben:
„Preisgünstig und im Klang auf eine positive Art und Weise so durchschnittlich, dass man es vor fast jedes Instrument hängen kann. Auch in der Nachberabeitung verhalten sich die Signale gutmütig. Als Sprechermikrofon bietet es einen angenehm steuerbaren Nahbesprechungseffekt und ausreichend Brillanz. Viel Mikro für wenig Geld, dazu kommt die für den Preis gute Verarbeitung.“
Nahbesprechungseffekt: Bei jedem Mikrofon, das über eine Richtwirkung verfügt, kommt es zum so genannten Nahbesprechungseffekt. Je näher die Schallquelle, etwa ein Sprecher, an die Membran des Mikrofons tritt, desto stärker werden die tiefen Frequenzen wiedergegeben – je nach Mikrofontyp und Abstand um bis zu 15 dB. Dies führt besonders bei Sprechern und Sängern zu einem allgemein als wärmer und dichter empfundenen Klang. Diese Form der Klangfärbung funktioniert aber auch bei anderen Signalen, wie etwa Gitarrenlautsprechern
Das RODE NT1-A verfügt also laut KEYS über gute Eigenschaften zur Aufnahme von Sprache und Instrumenten. In einigen Foren las ich, dass es auch für Gesang super geeignet sei, was allerdings auch von der Individualität der Stimme abhängt. Durch die Richtcharakteristik (goldener Punkt ist die Membranrichtung) existiert hier auch der Nahbesprechungseffekt.
Ich stand also letzte Woche im Musikhaus „Mollenhauer“ in Fulda, welches sich bei mir gleich um die Ecke befindet und das NT1-A als einziges RODE Mikro im Angebot hatte. Allerdings hat mich der Preis und die mangelende Professionalität meinerselbst beim Singen davon abgehalten, ein besseres Aufnahmemikro zu besorgen.
Da ich eigentlich nicht unbedingt zu den Niedrigverdienern gehöre, gerne mal etwas ausprobiere und gleichzeitig ungern Geld zum Fenster rausschmeisse, entschied ich mich also das gute Stück für 185 EUR zu kaufen. Im Internet gab es noch eine weitere Version der NT1-A Box, in der ein Ständer enthalten war. In Forenbeiträgen wurde über diesen Ständer negativ berichtet. Er würde leicht umkippen und instabil auf den Füßen stehen. Nun stellte sich für mich als erstes die Frage…
Lässt sich das Mikrofon an einem normalen Gesangsmikroständer montieren?
… also kaufen oder nicht kaufen….? Leider hatte ich keine Wahl, ich musste das Mikrofon kaufen! Also zack – Geld rausgehauen und ab nach Hause…
Als ich daheim ankam, konnte ich gleich meine erste positive Erfahrung machen:
Das Mikrofon passt mit der Nuss in einen Standardgesangsmikroständer!
Montiert sieht das gute Stück mit dem Puffschutz und der Spinne also so aus:
Als nächstes suchte ich auf meinem Line 6 KB37 also den Schalter, der die Phantomspeisung aktiviert. Dieser befindet sich in Form eines Schiebeschalters auf der Rückseite des Gerätes (neben dem Schiebeschalter für aktive/passive Speisung).
Die Phantomspeisung von 48 Volt wird über das Mikrofonkabel zum Kondensator geführt und ermöglicht das „Aufladen“ des Konsensators. Der Kondensator besteht aus 2 Platten, dessen „Kapazität“ sich bei Vergrößerung und Verkleinerung des Abstandes ändert. Eine Platte ist beweglich, ähnlich wie die Membrane bei einem dynamischen Gesangsmikrofon, nur das diese Beschaffenheit wesentlich natur- und detailgetreuer Aufnahmen mit brillianten Höhen ermöglichen soll.
Mein erster Aufnahmeversuch war allerdings sehr ernüchternd. Obwohl ich mich in einem kleinem Raum befinde, hallen die mit Rauhfasertapete bekleisterten Wände relativ stark. Das ist eine Detailtreue, die jede Aufnahme mit einem dynmaischen Gesangsmikro besser klingen lässt. Im nächsten Schritt nahm ich bei meiner Line 6 Software, die zusätzliche Charaktereigenschaften v0n Gesangsverstärkern und Mikros nachbilden soll alle Einstellungen dahingehend, das fast keine Effekte mehr vorhanden waren – Nachbearbeitung ist hier scheinbar besser. Also: Alle Effekte aus POD-Farm rausgenommen und ein bischen Gain mit Verstärker drauf hört sich hier am Besten an. Allerdings war der Raumhall immer noch detailiert auf den Aufnahmen zu hören. Ein dynamisches Mikro hat so etwas nie aufgezeichnet. Ich umschlung mich mit einer Decke, und deckte mich und das Mikrofon zu. Diese Aufnahme klang schon besser. Allerdings ist das sehr umbequem. Die Stelllampe in meinem Räumchen sollte nun als Bettdeckenhalter dienen – also fehlte mir noch eine weitere Bettdecke die ich dann von meiner Frau klaute. Ich hing sie über die Lampe und ging in eine Ecke, in der ich direkt gegen Büroordner singen konnte. Das war schon besser. So… was jetzt? So kann das nicht bleiben!
Ich studierte nun die beigelegte CD „Studio Secrets“, in der ein Tontechniker aus Detroit mit dem NT1-A und 2 Musikern klangliche Veränderungen demontriert, anhand der folgenden Parameter:
Raumanteil
Natürlicher Equalizer
Reduktion von Gesangsgeräuschen
Hohe Distanz zum Mikrofon
Niedrige Distanz zum Mikrofon
Frontales Einsingen (mit dem goldenen Punkt in Sichtrichtung Sänger)
Seitliches Einsingen (durch seitliches Drehen -> der goldene Punkt ragt zur Seite)
Mit Puffschutz
Ohne Puffschutz
Nun bestellte ich 3 mm dicke 2000mm x 1000mm-Noppenschaummatten im Musikhaus Mollenhauer, die ja bekanntlich eine gute Schallisolierung bieten sollen. Die erste Matte nagelte ich mit kleinen Reiszwecken an die Wand, die zweite Matte wollte ich an einer Stellwand festkleben, so dass ich den Raum künstlich verkleinern und trotzdem gegen eine Akkustikwand singen kann. Dafür ließ ich mir im OBI eine 2m x 1m Meter Sperrholzrückwand (wie sie z.B. in einem typischen IKEA-Schrank verwendet wird ) zuschneiden. Mit 3 2-Meter Latten, von denen ich mir eine zwecks Querverstrebung halibieren ließ, verstärkte ich die dir Rückwand. Hierdurch erhielt ich eine transportable, leichtgewichtige 2m x 1m Wand.
Das Ergebnis sieht so aus:
Die Kosten hierfür betrugen:
Ort
Artikel
Anzahl
Gesamtpreis
OBI
Sperrholzrückwand inklusive Zuschnitt auf 1m x 1m
2
7,50 EUR
OBI
2m Latte
3
5,10 EUR
OBI
Kleine Spak’s Schrauben
100
2,50 EUR
Musikhaus
2m x 1m Noppenschaum
2
42 EUR
Total:
57,10 EUR
Hier noch ein kleines, effektives Update mit 2 St. 1mx1m-Schaumstoffmatten, welches zusätzlich den Hall von Boden und Decke reduziert. Das Ergebnis lässt sich hören.
Man kann die Wand sowie die Decke ohne Befestigung aneinanderstellen.
Zusätzlich benutze ich jetzt noch eine Stelllampe, mit der ich auf einem Brett meine Bettdecke hinter mich hänge. Der Raum sollte übrigens nicht völlig absorbieren, sondern den störenden Nachhall reduzieren, der von glatten Wänden reflektiert wird. In einem interessanten Videobeitrag von Musotalk „Stimme zu Hause aufnehmen“ wird darüber gesprochen, dass es aber nicht das Ziel ist 100 Prozent des Raumes zu absorbieren, nachdem der Vorschlag eines Rekordinghelms mit Noppenschaum gemacht wurde.
Das Video befindet sich hier:
Als Kommentar unter einem Musotalk Video gab es auch: Ich benutze 3 alte Mikrofonständer und behänge diese mit Decken (nochmal als Alternative falls alte Decken und Mikroständer da sind).
Im Proberaum mit Internetzugang ergab sich oft die Situation, in der man schnell ein paar Tabulaturen aufschreiben musste. Tabulaturen.de soll einfach die nötigsten Werkzeuge liefern um eine druckfähige Tabulatur ohne großen Aufwand zu generieren.
Zielgruppenanalyse
Ranking für Tabulaturen und Guitartabs bei Google
Es ist ein stark rückläufiger Trend für die Suche nach Tabulaturen und Guitartabs zu verzeichnen. Ich vermute dass das Ventil der Suchenden nun vorwiegend YouTube-Videos sind, da man hier auch ein breites Spektrum an Tutorials für Lieder vorfindet.
Was in den meisten Fällen fehlt, wäre das Anreichern von den YouTube Videos mit Tabulaturen. Nun ist natürlich die Frage ob die Video irgendeine Legalitätslücke ausnutzen, da sie regelrecht sprießen. Darf jeder irgendein Lehrvideo machen wenn er keine Tabulaturen zeigt?
Weitere denkbare Projekte auf der Basis
Kapital vorhanden:
– Brainstorming Tool
– Projektmanagement (GANTT)
– UML
– Programmablaufpläne
– ER Diagramme (die normalen)
– Web Visio
Ohne Kapital
– Puzzle
To Do
Löschen von Tabs und Texten
Editieren von Texten
Taktstriche
Properties wie bei Objektinspektor für Tab (Tempo / Takt … )