Thursday, 16 March 2017

Quantitative Trading Strategien In R

Quant Strategien - sind sie für Sie Quantitative Anlagestrategien haben sich zu sehr komplexen Werkzeugen mit dem Aufkommen moderner Computer entwickelt, aber die Strategien Wurzeln gehen über 70 Jahre zurück. Sie werden in der Regel von hochgebildeten Teams geführt und verwenden proprietäre Modelle, um ihre Fähigkeit zu erhöhen, den Markt zu schlagen. Es gibt sogar off-the-shelf Programme, die Plug-and-Play für diejenigen sind, die Einfachheit suchen. Quant-Modelle funktionieren immer gut, wenn sie zurück getestet wurden, aber ihre tatsächlichen Anwendungen und Erfolgsquoten sind umstritten. Während sie in den Bullenmärkten gut funktionieren scheinen. Wenn die Märkte haywire gehen, werden Quant Strategien den gleichen Risiken ausgesetzt wie jede andere Strategie. Die Geschichte Einer der Gründungsväter der Studie der quantitativen Theorie, die auf die Finanzierung angewendet wurde, war Robert Merton. Man kann sich nur vorstellen, wie schwierig und zeitaufwendig der Prozess vor dem Gebrauch von Computern war. Andere Theorien in der Finanzierung entwickelten sich auch aus einigen der ersten quantitativen Studien, einschließlich der Basis der Portfolio-Diversifizierung auf der Grundlage der modernen Portfolio-Theorie. Die Verwendung von quantitativen Finanzen und Kalkül führte zu vielen anderen gemeinsamen Tools, darunter eine der bekanntesten, die Black-Scholes Option Preisformel, die nicht nur Investoren Preis Optionen und Strategien zu entwickeln, sondern hilft, die Märkte in Schach mit Liquidität zu halten. Bei der direkten Portfoliomanagement. Das Ziel ist wie jede andere Anlagestrategie. Um Wert, Alpha oder Überschuss zurückzugeben. Quants, wie die Entwickler genannt werden, komponieren komplexe mathematische Modelle, um Investitionsmöglichkeiten zu erkennen. Es gibt so viele Modelle da draußen wie Quants, die sie entwickeln, und alle behaupten, die besten zu sein. Eines der Quant-Investment-Strategien Best-Selling-Punkte ist, dass das Modell, und letztlich der Computer, macht die eigentliche Buysell Entscheidung, nicht ein Mensch. Dies neigt dazu, jede emotionale Reaktion zu entfernen, die eine Person beim Kauf oder Verkauf von Investitionen erleben kann. Quant-Strategien werden nun in der Investitionsgemeinschaft akzeptiert und werden durch Investmentfonds, Hedgefonds und institutionelle Investoren geführt. Sie gehen in der Regel durch den Namen Alpha-Generatoren. Oder alpha gens Hinter dem Vorhang Wie im Zauberer von Oz ist jemand hinter dem Vorhang, der den Prozess antreibt. Wie bei jedem Modell ist es nur so gut wie der Mensch, der das Programm entwickelt. Zwar gibt es keine spezifische Anforderung, um ein Quant zu werden, die meisten Firmen, die Quant-Modelle betreiben, kombinieren die Fähigkeiten von Investment-Analysten, Statistiker und die Programmierer, die den Prozess in den Computern kodieren. Aufgrund der komplexen Natur der mathematischen und statistischen Modelle, ihre gemeinsame zu sehen, Anmeldeinformationen wie Graduate Grad und Doktoranden in Finanzen, Wirtschaft, Mathematik und Ingenieurwesen zu sehen. Historisch gesehen arbeiteten diese Teammitglieder in den Backoffices. Aber da Quellmodelle immer häufiger wurden, geht das Backoffice zum Frontbüro. Vorteile von Quant-Strategien Während die allgemeine Erfolgsquote umstritten ist, ist der Grund, warum einige Quant-Strategien funktionieren, dass sie auf Disziplin basieren. Wenn das Modell richtig ist, hält die Disziplin die Strategie, mit Blitzschnellcomputern zu arbeiten, um Ineffizienzen in den Märkten auf der Grundlage quantitativer Daten auszunutzen. Die Modelle selbst können auf so wenig wie einige Verhältnisse wie PE basieren. Schulden auf Eigenkapital und Ergebniswachstum oder Tausende von Inputs zur gleichen Zeit zusammenarbeiten. Erfolgreiche Strategien können sich in Trends in ihren frühen Stadien abholen, da die Computer ständig Szenarien laufen, um Ineffizienzen zu lokalisieren, bevor andere es tun. Die Modelle sind in der Lage, eine sehr große Gruppe von Investitionen gleichzeitig zu analysieren, wo der traditionelle Analytiker nur einige auf einmal betrachten kann. Der Screening-Prozess kann das Universum nach Klassenstufen wie 1-5 oder A-F je nach Modell bewerten. Dies macht den eigentlichen Handelsprozess sehr einfach, indem er in die hoch bewerteten Investitionen investiert und die niedrig bewerteten verkauft. Quant-Modelle eröffnen auch Variationen von Strategien wie Long, Short und Longshort. Erfolgreiche Mengenfonds halten die Risikokontrolle aufgrund der Art ihrer Modelle im Blick. Die meisten Strategien beginnen mit einem Universum oder Benchmark und nutzen Sektor und Industrie Gewichtungen in ihren Modellen. Damit können die Mittel die Diversifikation bis zu einem gewissen Grad kontrollieren, ohne das Modell selbst zu beeinträchtigen. Quant-Fonds laufen in der Regel auf einer niedrigeren Kostenbasis, weil sie nicht so viele traditionelle Analytiker und Portfoliomanager brauchen, um sie zu führen. Nachteile von Quant Strategies Es gibt Gründe, warum so viele Investoren nicht vollständig umarmen das Konzept der Vermietung einer Black Box laufen ihre Investitionen. Für alle erfolgreichen quant Fonds da draußen, so viele scheinen nicht erfolgreich zu sein. Leider für die Quants Reputation, wenn sie scheitern, sie scheitern große Zeit. Long-Term Capital Management war eines der bekanntesten Quoten-Hedge-Fonds, wie es von einigen der angesehensten akademischen Führer und zwei Nobel Memorial Preisträger Ökonomen Myron S. Scholes und Robert C. Merton geführt wurde. In den 1990er Jahren erzielte ihr Team überdurchschnittliche Renditen und zog Kapital von allen Investoren an. Sie waren berühmt dafür, dass sie nicht nur Ineffizienzen ausnutzen, sondern auch einen leichten Zugang zu Kapital nutzen, um enorme gehebelte Wetten auf Marktanweisungen zu schaffen. Die disziplinierte Natur ihrer Strategie schuf tatsächlich die Schwäche, die zu ihrem Zusammenbruch führte. Langfristiges Kapitalmanagement wurde im Frühjahr 2000 liquidiert und aufgelöst. Seine Modelle enthielten nicht die Möglichkeit, dass die russische Regierung auf einige ihrer eigenen Schulden verstoßen könnte. Diese ein Ereignis ausgelöst Ereignisse und eine Kettenreaktion vergrößert durch Leverage-verursachte Chaos. LTCM war so stark mit anderen Investitionsvorgängen beschäftigt, dass sein Zusammenbruch die Weltmärkte beeinflusste und dramatische Ereignisse auslöste. Auf lange Sicht trat die Federal Reserve ein, um zu helfen, und andere Banken und Investmentfonds unterstützten LTCM, um weitere Schäden zu vermeiden. Dies ist einer der Gründe, warum quant Fonds fehlschlagen können, da sie auf historischen Ereignissen basieren, die keine zukünftigen Ereignisse beinhalten können. Während ein starkes Quant-Team ständig neue Aspekte der Modelle hinzufügt, um zukünftige Ereignisse vorherzusagen, ist es unmöglich, die Zukunft jedes Mal vorherzusagen. Quant-Fonds können auch überwältigt werden, wenn die Wirtschaft und die Märkte eine überdurchschnittliche Volatilität erfahren. Die Kauf - und Verkaufssignale können so schnell kommen, dass der hohe Umsatz hohe Provisionen und steuerpflichtige Ereignisse schaffen kann. Quant-Fonds können auch eine Gefahr darstellen, wenn sie als Bärensicherheit vermarktet werden oder auf kurzen Strategien basieren. Vorhersage von Abschwüngen. Mit Derivaten und Kombination von Hebelwirkung kann gefährlich sein. Eine falsche Wendung kann zu Implosionen führen, die oft die Neuigkeiten machen. Die Bottom Line Quantitative Anlagestrategien haben sich von Backoffice Black Boxen zu Mainstream Investment Tools entwickelt. Sie sind entworfen, um die besten Köpfe in der Wirtschaft und die schnellsten Computer zu nutzen, um Ineffizienzen zu nutzen und nutzen Hebel, um Marktwetten zu machen. Sie können sehr erfolgreich sein, wenn die Modelle alle richtigen Eingaben enthalten haben und sind flink genug, um abnorme Marktereignisse vorherzusagen. Auf der Flip-Seite, während Quant-Fonds rigoros zurück getestet werden, bis sie arbeiten, ihre Schwäche ist, dass sie sich auf historische Daten für ihren Erfolg verlassen. Während die Quant-Style-Investition ihren Platz auf dem Markt hat, ist es wichtig, sich ihrer Mängel und Risiken bewusst zu sein. Im Einklang mit Diversifizierungsstrategien sein. Es ist eine gute Idee, Quant-Strategien als Investitionsstil zu behandeln und mit traditionellen Strategien zu kombinieren, um eine ordnungsgemäße Diversifizierung zu erreichen. Eine ökonomische Theorie der Gesamtausgaben in der Wirtschaft und ihre Auswirkungen auf die Produktion und Inflation. Keynesianische Ökonomie wurde entwickelt. Ein Bestand eines Vermögenswerts in einem Portfolio. Eine Portfolioinvestition erfolgt mit der Erwartung, eine Rendite zu erzielen. Dies. Ein von Jack Treynor entwickeltes Verhältnis, das die Erträge übertrifft, die über das hinausgekommen sind, was im risikolosen verdient werden könnte. Der Rückkauf ausstehender Aktien (Rückkauf) durch eine Gesellschaft, um die Anzahl der Aktien auf dem Markt zu reduzieren. Firmen. Eine Steuererstattung ist eine Erstattung für Steuern, die an eine Einzelperson oder einen Haushalt gezahlt werden, wenn die tatsächliche Steuerpflicht weniger als der Betrag ist. Der monetäre Wert aller fertiggestellten Waren und Dienstleistungen, die innerhalb eines Landes erstellt wurden, grenzt in einem bestimmten Zeitraum. Finanzielle Mathematik und Modellierung II (FINC 621) ist eine Absolventenstufe, die derzeit in der Loyola Universität in Chicago im Winterquartier angeboten wird. FINC 621 erforscht Themen in quantitativer Finanzierung, Mathematik und Programmierung. Die Klasse ist praktisch in der Natur und besteht aus einer Vorlesung und einer Laborkomponente. Die Labore nutzen die Programmiersprache R und die Schüler sind verpflichtet, ihre einzelnen Aufträge am Ende jeder Klasse einzureichen. Das Ziel der FINC 621 ist es, den Schülern praktische Werkzeuge zur Verfügung zu stellen, mit denen sie einfache Handelsstrategien erstellen, modellieren und analysieren können. Einige nützliche R-Links Über den Instruktor Harry G. ist ein hochrangiger quantitativer Trader für ein HFT-Handelsunternehmen in Chicago. Er hat einen Master8217s Grad in Elektrotechnik und ein Master8217s Grad in der Finanzmathematik von der Universität von Chicago. In seiner Freizeit lehrt Harry einen Abschlusskurs in Quantitative Finance an der Loyola University in Chicago. Er ist auch der Autor von Quantitative Trading mit R. Beginner39s Guide to Quantitative Trading In diesem Artikel Ich werde Ihnen einige der grundlegenden Konzepte vorstellen, die ein End-to-End-quantitativen Handelssystem begleiten. Dieser Beitrag wird hoffentlich zwei Zuschauern bedienen. Die ersten werden Einzelpersonen versuchen, einen Job an einem Fonds als quantitative Trader zu erhalten. Die zweite werden Einzelpersonen sein, die versuchen wollen, ihre eigenen Einzelhandels-algorithmischen Handelsgeschäfte einzurichten. Der quantitative Handel ist ein äußerst anspruchsvolles Gebiet der Quantfinanzierung. Es kann eine beträchtliche Zeit in Anspruch nehmen, um das notwendige Wissen zu gewinnen, um ein Interview zu bestehen oder eigene Trading-Strategien zu konstruieren. Nicht nur das, sondern es erfordert umfangreiche Programmierkenntnisse, zumindest in einer Sprache wie MATLAB, R oder Python. Doch da die Handelshäufigkeit der Strategie zunimmt, werden die technologischen Aspekte viel wichtiger. So vertraut mit CC wird von größter Bedeutung sein. Ein quantitatives Handelssystem besteht aus vier Hauptkomponenten: Strategieidentifizierung - Strategie finden, einen Vorteil ausschöpfen und sich auf die Handelsfrequenz konzentrieren Strategie Backtesting - Daten erwerben, Strategie-Performance analysieren und Biases beseitigen Execution System - Verknüpfung mit einem Brokerage, Automatisierung des Handels und Minimierung Transaktionskosten Risikomanagement - Optimale Kapitalallokation, Wette GrößeKelly Kriterium und Handelspsychologie Beginnen wir mit einem Blick auf die Identifizierung einer Handelsstrategie. Strategieidentifikation Alle quantitativen Handelsprozesse beginnen mit einer anfänglichen Forschungsphase. Dieser Forschungsprozess umfasst die Suche nach einer Strategie, ob die Strategie in ein Portfolio von anderen Strategien, die Sie laufen können, passt, um alle Daten zu erhalten, die notwendig sind, um die Strategie zu testen und zu versuchen, die Strategie für höhere Renditen und ein geringeres Risiko zu optimieren. Sie müssen Ihre Eigenkapitalanforderungen berücksichtigen, wenn Sie die Strategie als Einzelhändler betreiben und wie sich die Transaktionskosten auf die Strategie auswirken werden. Im Gegensatz zum populären Glauben ist es eigentlich ganz einfach, profitable Strategien durch verschiedene öffentliche Quellen zu finden. Die Akademiker veröffentlichen regelmäßig die theoretischen Handelsergebnisse (wenn auch meist die Transaktionskosten). Quantitative Finanz-Blogs diskutieren Strategien im Detail. Fachzeitschriften werden einige der von den Fonds eingesetzten Strategien skizzieren. Sie könnten fragen, warum Einzelpersonen und Firmen sind scharf, ihre rentablen Strategien zu diskutieren, vor allem, wenn sie wissen, dass andere Gedränge der Handel kann die Strategie von der Arbeit auf lange Sicht zu stoppen. Der Grund liegt in der Tatsache, dass sie nicht oft die genauen Parameter und Tuning-Methoden, die sie durchgeführt haben, diskutieren. Diese Optimierungen sind der Schlüssel, um eine relativ mittelmäßige Strategie zu einem sehr profitablen zu machen. In der Tat ist eine der besten Möglichkeiten, um Ihre eigenen einzigartigen Strategien zu schaffen, ähnliche Methoden zu finden und dann führen Sie Ihre eigene Optimierung Verfahren. Hier ist eine kleine Liste von Orten, um auf der Suche nach Strategie-Ideen zu beginnen: Viele der Strategien, die Sie betrachten werden, fallen in die Kategorien von Mittel-Reversion und Trend-Followmomentum. Eine Mittelrückkehrstrategie ist eine, die versucht, die Tatsache auszuschöpfen, dass ein langfristiger Mittelwert für eine Preisreihe (wie die Verteilung zwischen zwei korrelierten Vermögenswerten) besteht und dass kurzfristige Abweichungen von diesem Mittelwert schließlich zurückgehen werden. Eine Impulsstrategie versucht, sowohl die Investorenpsychologie als auch die Großfondsstruktur zu nutzen, indem sie eine Fahrt auf einen Markttrend einnimmt, der in einer Richtung Impulse sammeln und dem Trend folgen kann, bis er sich umkehrt. Ein weiterer wichtiger Aspekt des quantitativen Handels ist die Häufigkeit der Handelsstrategie. Niederfrequenzhandel (LFT) bezieht sich allgemein auf jede Strategie, die Vermögenswerte hält, die länger als ein Handelstag sind. Entsprechend bezieht sich der Hochfrequenzhandel (HFT) im Allgemeinen auf eine Strategie, die Vermögenswerte intraday hält. Ultra-High-Frequenz-Handel (UHFT) bezieht sich auf Strategien, die Vermögenswerte in der Größenordnung von Sekunden und Millisekunden halten. Als Einzelhandels-Praktiker HFT und UHFT sind sicherlich möglich, aber nur mit detaillierten Kenntnissen der Trading-Technologie Stack und Orderbuch Dynamik. Wir werden diese Aspekte in diesem Einführungsartikel in keiner Weise besprechen. Sobald eine Strategie oder eine Reihe von Strategien identifiziert wurde, muss sie nun auf die Profitabilität auf historischen Daten getestet werden. Das ist die Domäne der Backtesting. Strategie Backtesting Das Ziel der Backtesting ist es, den Nachweis zu erbringen, dass die Strategie, die über den oben genannten Prozess identifiziert wurde, rentabel ist, wenn sie sowohl auf historische als auch auf out-of-sample-Daten angewendet wird. Dies setzt die Erwartung, wie die Strategie in der realen Welt durchführen wird. Allerdings ist das Backtesting aus Sicherheitsgründen keine Garantie für den Erfolg. Es ist vielleicht der subtilste Bereich des quantitativen Handels, da er zahlreiche Vorurteile mit sich bringt, die sorgfältig betrachtet und so weit wie möglich beseitigt werden müssen. Wir diskutieren die gemeinsamen Arten von Bias einschließlich Look-Ahead Bias. Überlebens-Bias und Optimierung Bias (auch bekannt als Data-Snooping Bias). Weitere wichtige Bereiche im Backtesting sind die Verfügbarkeit und Sauberkeit der historischen Daten, das Factoring in realistischen Transaktionskosten und die Entscheidung über eine robuste Backtesting-Plattform. Besprechen Sie die Transaktionskosten weiter unten im Abschnitt Sicherheitssysteme. Sobald eine Strategie identifiziert wurde, ist es notwendig, die historischen Daten zu erhalten, durch die die Durchführung von Tests und eventuell Verfeinerung durchgeführt werden soll. Es gibt eine beträchtliche Anzahl von Datenanbietern über alle Assetklassen hinweg. Ihre Kosten im Allgemeinen skalieren mit der Qualität, Tiefe und Aktualität der Daten. Der traditionelle Ausgangspunkt für den Beginn der Quant Trader (zumindest auf der Retail-Ebene) ist die Nutzung der freien Datensatz von Yahoo Finance. Ich werde hier nicht zu viel zu viel zu Hause sein, vielmehr möchte ich mich auf die allgemeinen Fragen konzentrieren, wenn es um historische Datensätze geht. Zu den Hauptanliegen der historischen Daten gehören die Genauigkeitsgleichheit, die Überlebensvorsorge und die Anpassung an Unternehmensaktionen wie Dividenden und Aktiensplits: Die Genauigkeit bezieht sich auf die Gesamtqualität der Daten - ob es Fehler gibt. Fehler können manchmal leicht zu identifizieren, wie mit einem Spike-Filter. Die falsche Spikes in Zeitreihen-Daten auswählen und für sie korrigieren werden. Zu anderen Zeiten können sie sehr schwer zu erkennen sein. Es ist oft notwendig, zwei oder mehr Anbieter zu haben und dann alle ihre Daten gegeneinander zu überprüfen. Überlebensstörung ist oft ein Merkmal von freien oder billigen Datasets. Ein Datensatz mit Überlebensvorgabe bedeutet, dass es keine Vermögenswerte enthält, die nicht mehr handeln. Im Falle von Aktien bedeutet dies, Diese Bias bedeutet, dass jede Aktienhandelsstrategie, die auf einem solchen Datensatz getestet wird, wahrscheinlich besser als in der realen Welt ist, da die historischen Gewinner bereits vorgewählt wurden. Bei den Kapitalmaßnahmen handelt es sich um logistische Aktivitäten des Unternehmens, die in der Regel eine stufenförmige Änderung des Rohpreises verursachen, die nicht in die Berechnung der Renditen des Preises einbezogen werden sollte. Anpassungen für Dividenden und Aktiensplits sind die üblichen Täter. Ein Prozeß, der als Rückenverstellung bekannt ist, ist notwendig, um bei jeder dieser Aktionen durchgeführt zu werden. Man muss sehr vorsichtig sein, einen Aktiensplit nicht mit einer echten Renditeanpassung zu verwechseln. Viele Händler wurden von einer Unternehmensaktion erwischt. Um ein Backtest-Verfahren durchführen zu können, ist es notwendig, eine Softwareplattform zu nutzen. Sie haben die Wahl zwischen dedizierter Backtest-Software wie Tradestation, einer numerischen Plattform wie Excel oder MATLAB oder einer kompletten benutzerdefinierten Implementierung in einer Programmiersprache wie Python oder C. Ich werde nicht zu viel auf Tradestation (oder ähnlich), Excel oder MATLAB, wie ich glaube an die Schaffung eines kompletten Inhouse-Technologie-Stack (aus Gründen unten skizziert). Einer der Vorteile davon ist, dass das Backtest-Software - und Ausführungssystem auch bei extrem fortgeschrittenen statistischen Strategien eng integriert werden kann. Für HFT-Strategien ist es insbesondere wichtig, eine benutzerdefinierte Implementierung zu nutzen. Beim Backtesting eines Systems muss man in der Lage sein zu quantifizieren, wie gut es funktioniert. Die branchenüblichen Metriken für quantitative Strategien sind der maximale Drawdown und das Sharpe Ratio. Der maximale Drawdown charakterisiert den größten Peak-to-Trog-Drop in der Konto-Equity-Kurve über einen bestimmten Zeitraum (in der Regel jährlich). Dies wird am häufigsten als Prozentsatz angegeben. LFT-Strategien neigen dazu, größere Drawdowns als HFT-Strategien, aufgrund einer Reihe von statistischen Faktoren haben. Ein historischer Backtest zeigt den bisherigen maximalen Drawdown, was ein guter Leitfaden für die zukünftige Drawdown-Performance der Strategie ist. Die zweite Messung ist die Sharpe Ratio, die heuristisch definiert ist als der Durchschnitt der Überschussrenditen dividiert durch die Standardabweichung dieser Überschussrenditen. Hier bezieht sich die Überschussrendite auf die Rendite der Strategie über einem vorgegebenen Benchmark. Wie die SP500 oder eine 3-Monats-Treasury Bill. Beachten Sie, dass die annualisierte Rendite nicht eine Maßnahme ist, die in der Regel verwendet wird, da sie die Volatilität der Strategie nicht berücksichtigt (im Gegensatz zum Sharpe Ratio). Sobald eine Strategie rückwirkend ist und als frei von Vorurteilen (in so viel wie möglich) gilt, mit einem guten Sharpe und minimierten Drawdowns ist es Zeit, ein Ausführungssystem zu bauen. Ausführungssysteme Ein Ausführungssystem ist das Mittel, mit dem die von der Strategie erzeugte Liste der Trades vom Makler gesendet und ausgeführt wird. Trotz der Tatsache, dass die Handelserzeugung halb - oder sogar vollautomatisch sein kann, kann der Ausführungsmechanismus manuell, halb manuell (d. H. Ein Klick) oder vollautomatisch sein. Für LFT-Strategien sind manuelle und halb-manuelle Techniken üblich. Für HFT-Strategien ist es notwendig, einen vollautomatischen Ausführungsmechanismus zu schaffen, der oft mit dem Handelsgenerator (aufgrund der gegenseitigen Abhängigkeit von Strategie und Technologie) eng verbunden ist. Die wichtigsten Überlegungen bei der Erstellung eines Ausführungssystems sind die Schnittstelle zum Brokerage. Minimierung der Transaktionskosten (inklusive Provision, Schlupf und Spreizung) und Divergenz der Performance des Live-Systems durch rückwirkende Performance. Es gibt viele Möglichkeiten, eine Brokerage anzuschließen. Sie reichen vom Aufruf Ihres Brokers am Telefon bis hin zu einer vollautomatischen Hochleistungs-Programmierschnittstelle (API). Idealerweise möchten Sie die Ausführung Ihrer Trades so weit wie möglich automatisieren. Dies befreit Sie, um sich auf weitere Forschung zu konzentrieren, sowie ermöglichen es Ihnen, mehrere Strategien oder sogar Strategien der höheren Frequenz laufen (in der Tat ist HFT im Wesentlichen unmöglich ohne automatisierte Ausführung). Die oben beschriebene gemeinsame Backtesting-Software wie MATLAB, Excel und Tradestation sind für niedrigere Frequenz, einfachere Strategien gut. Allerdings wird es notwendig sein, ein hauseigenes Ausführungssystem zu erstellen, das in einer Hochleistungssprache wie C geschrieben ist, um echte HFT zu machen. Als Anekdote, in dem Fonds, in dem ich beschäftigt war, hatten wir eine 10-minütige Trading-Schleife, wo wir neue Marktdaten alle 10 Minuten herunterladen und dann Trades auf der Grundlage dieser Informationen im gleichen Zeitrahmen ausführen würden. Dies war mit einem optimierten Python-Skript. Für irgendetwas, das sich auf Minuten - oder Zweit-Frequenz-Daten nähert, glaube ich, dass CC idealer wäre. In einem größeren Fonds ist es oft nicht die Domäne des Quant-Traders, die Ausführung zu optimieren. Doch in kleineren Geschäften oder HFT-Firmen sind die Händler die Vollstrecker und so ein viel breiteres Skillset ist oft wünschenswert. Denken Sie daran, wenn Sie von einem Fonds beschäftigt werden möchten. Ihre Programmierkenntnisse werden so wichtig sein, wenn nicht mehr, als Ihre Statistiken und Ökonometrie-Talente Ein weiteres wichtiges Thema, das unter den Banner der Ausführung fällt, ist das der Transaktionskostenminimierung. Es gibt in der Regel drei Komponenten für Transaktionskosten: Provisionen (oder Steuern), die die Gebühren sind, die durch die Vermittlung, die Börse und die SEC (oder eine ähnliche Regierungsbehörde) rutschen, was ist der Unterschied zwischen dem, was Sie beabsichtigt, Ihre Bestellung zu sein Gefüllt im Vergleich zu dem, was es tatsächlich gefüllt war bei der Ausbreitung, was ist der Unterschied zwischen dem bidask Preis der Sicherheit gehandelt. Beachten Sie, dass der Spread NICHT konstant ist und von der aktuellen Liquidität (d. H. Verfügbarkeit von Buysell-Aufträgen) auf dem Markt abhängig ist. Transaktionskosten können den Unterschied zwischen einer äußerst profitablen Strategie mit einer guten Sharpe-Ratio und einer äußerst unrentablen Strategie mit einem schrecklichen Sharpe-Verhältnis machen. Es kann eine Herausforderung sein, die Transaktionskosten von einem Backtest korrekt vorherzusagen. Abhängig von der Häufigkeit der Strategie benötigen Sie Zugriff auf historische Austauschdaten, die Tick-Daten für Bidask-Preise enthalten. Ganze Teams von Quants sind der Optimierung der Ausführung in den größeren Fonds gewidmet, aus diesen Gründen. Betrachten Sie das Szenario, in dem ein Fonds eine erhebliche Menge an Trades auslösen muss (von denen die Gründe dafür vielfältig sind). Durch das Dumping so viele Aktien auf den Markt, werden sie schnell drücken Sie den Preis und kann nicht optimale Ausführung erhalten. Daher existieren Algorithmen, die Futteraufträge auf den Markt abtropfen, obwohl der Fonds das Risiko des Schlupfes ausführt. Darüber hinaus beherrschen andere Strategien diese Notwendigkeiten und können die Ineffizienzen ausnutzen. Dies ist die Domäne der Fondsstruktur Arbitrage. Das letzte Hauptproblem für Ausführungssysteme betrifft die Divergenz der Strategieleistung aus der Rückversicherung. Dies kann aus einer Reihe von Gründen passieren. Weve bereits diskutiert Look-Ahead Bias und Optimierung Bias in der Tiefe, bei der Betrachtung Backtests. Allerdings machen einige Strategien es nicht leicht, diese Vorurteile vor dem Einsatz zu testen. Dies geschieht in HFT am überwiegendsten. Es gibt möglicherweise Fehler im Ausführungssystem sowie die Handelsstrategie selbst, die nicht auf einem Backtest auftauchen, aber DO im Live-Handel auftauchen. Der Markt kann unter Umständen einer Regimewechsel nach dem Einsatz Ihrer Strategie unterzogen worden sein. Neue regulatorische Umgebungen, veränderte Investorenstimmung und makroökonomische Phänomene können alle zu Divergenzen führen, wie sich der Markt verhält und damit die Profitabilität Ihrer Strategie. Risikomanagement Das letzte Stück zum quantitativen Trading Puzzle ist der Prozess des Risikomanagements. Das Risiko beinhaltet alle bisherigen Vorurteile, die wir besprochen haben. Es umfasst Technologierisiken, wie z. B. Server, die sich an der Börse befinden und plötzlich eine Festplattenfehlfunktion entwickeln. Es schließt das Vermittlungsrisiko ein, wie der Makler in Konkurs wird (nicht so verrückt wie es klingt, angesichts der jüngsten Angst mit MF Global). Kurz gesagt deckt es fast alles ab, was die Handelsimplementierung beeinträchtigen könnte, von der es viele Quellen gibt. Ganze Bücher sind dem Risikomanagement für quantitative Strategien gewidmet, so dass ich nicht versuchen werde, auf alle möglichen Gefahrenquellen zu klären. Das Risikomanagement umfasst auch die so genannte optimale Kapitalallokation. Das ist ein Zweig der Portfolio-Theorie. Dies ist das Mittel, mit dem das Kapital auf eine Reihe von verschiedenen Strategien und auf die Trades innerhalb dieser Strategien verteilt wird. Es ist ein komplexes Gebiet und beruht auf einer nicht-trivialen Mathematik. Der Industriestandard, durch den die optimale Kapitalallokation und die Hebelwirkung der Strategien verwandt werden, heißt das Kelly-Kriterium. Da dies ein einleitender Artikel ist, werde ich nicht auf seine Berechnung verzichten. Das Kelly-Kriterium macht einige Annahmen über die statistische Natur der Renditen, die in den Finanzmärkten nicht oft zutreffen, so dass die Händler oftmals konservativ sind, wenn es um die Umsetzung geht. Ein weiterer wichtiger Bestandteil des Risikomanagements liegt im Umgang mit einem eigenen psychologischen Profil. Es gibt viele kognitive Vorurteile, die zum Handel kriechen können. Obwohl dies zwar bei algorithmischem Handel weniger problematisch ist, wenn die Strategie allein gelassen wird, ist eine gemeinsame Vorspannung diejenige der Verlustaversion, bei der eine Verlustposition aufgrund des Schmerzes, einen Verlust zu realisieren, nicht geschlossen wird. Ebenso können Gewinne zu früh genommen werden, weil die Angst, einen bereits gewonnenen Gewinn zu verlieren, zu groß sein kann. Eine andere gemeinsame Vorspannung wird als Wiederholungsvorspannung bezeichnet. Dies manifestiert sich, wenn die Händler zu viel Wert auf die jüngsten Ereignisse und nicht auf längere Sicht setzen. Dann gibt es natürlich das klassische Paar emotionaler Vorurteile - Angst und Gier. Diese können oft zu einer Unter - oder Überhebelung führen, was zu einem Blow-up führen kann (d. h. das Konto-Equity-Kurs auf Null oder schlechter) oder reduzierte Gewinne. Wie man sehen kann, ist der quantitative Handel ein äußerst komplexer, wenn auch sehr interessanter Bereich der quantitativen Finanzierung. Ich habe buchstäblich die Oberfläche des Themas in diesem Artikel gekratzt und es wird schon ziemlich lange Ganze Bücher und Papiere wurden über Fragen geschrieben, denen ich nur einen Satz oder zwei in Richtung gegeben habe. Aus diesem Grund ist es vor der Beantragung von quantitativen Fondshandelsaufgaben notwendig, eine beträchtliche Menge an Grundlagenstudien durchzuführen. Zumindest benötigen Sie einen umfangreichen Hintergrund in der Statistik und Ökonometrie, mit viel Erfahrung in der Implementierung, über eine Programmiersprache wie MATLAB, Python oder R. Für anspruchsvollere Strategien am höheren Frequenzende ist Ihr Skill-Set wahrscheinlich Um Linux-Kernel-Modifikation, CC, Assembly-Programmierung und Netzwerk-Latenz-Optimierung. Wenn Sie daran interessiert sind, Ihre eigenen algorithmischen Handelsstrategien zu erstellen, wäre mein erster Vorschlag, bei der Programmierung gut zu werden. Meine Vorliebe ist es, so viel von der Daten-Grabber, Strategie-Backtester und Ausführung System von sich selbst wie möglich zu bauen. Wenn Ihr eigenes Kapital auf der Linie ist, würden Sie nicht besser schlafen in der Nacht wissen, dass Sie Ihr System vollständig getestet haben und sich seiner Fallstricke und bestimmten Fragen bewusst sind Outsourcing dieses zu einem Verkäufer, während potenziell Zeit sparen in der kurzfristigen, könnte extrem sein Teuer in der langfristigen Just Getting Started mit quantitativen TradingNovember 30, 2016, 12:34 pm Vor ein paar Monaten ein Leser zeigt mir diese neue Art der Verbindung von R und Excel. Ich weiß nicht, wie lange das schon gewesen ist, aber ich habe nie darauf gekommen und ich habe nie einen Blog-Post oder Artikel darüber gesehen. Also habe ich beschlossen, einen Beitrag zu schreiben, da das Tool es wirklich wert ist und bevor jemand fragt, I8217m nicht mit dem Unternehmen in irgendeiner Weise verwandt. BERT steht für Basic Excel R Toolkit. It8217s kostenlos (lizenziert unter der GPL v2) und wurde von Structured Data LLC entwickelt. Zum Zeitpunkt des Schreibens der aktuellen Version von BERT ist 1.07. Weitere Informationen finden Sie hier. Aus technischer Sicht ist BERT entworfen, um laufende R-Funktionen aus Excel-Tabellenkalkulationen zu unterstützen. In Excel-Begriffen, it8217s für das Schreiben von benutzerdefinierten Funktionen (UDFs) in R. In diesem Beitrag I8217m nicht zeigen, wie R und Excel über BERT interagieren. Es gibt hier sehr gute Tutorials. Hier und hier Stattdessen möchte ich dir zeigen, wie ich BERT benutzt habe, um einen 8220control tower8221 für meinen Handel zu bauen. Meine Trading-Signale werden mit einer langen Liste von R-Dateien generiert, aber ich brauche die Flexibilität von Excel, um Ergebnisse schnell und effizient anzuzeigen. Wie oben gezeigt, kann BERT dies für mich tun, aber ich möchte auch die Anwendung auf meine Bedürfnisse anpassen. Durch die Kombination der Power von XML, VBA, R und BERT kann ich eine gut aussehende und dennoch leistungsstarke Anwendung in Form einer Excel-Datei mit minimalem VBA-Code erstellen. Letztlich habe ich eine einzige Excel-Datei, die alle notwendigen Aufgaben sammelt, um mein Portfolio zu verwalten: Datenbank-Update, Signalerzeugung, Auftragsvorlage etc8230 Mein Ansatz könnte in den folgenden 3 Schritten abgebaut werden: Verwenden Sie XML, um benutzerdefinierte Menüs und Schaltflächen in einem Excel zu erstellen Datei. Die oben genannten Menüs und Tasten sind im Wesentlichen Anrufe an VBA-Funktionen. Diese VBA-Funktionen werden um R-Funktionen, die mit BERT definiert sind, umbrochen. Mit diesem Ansatz kann ich eine klare Unterscheidung zwischen dem Kern meines Codes, der in R, SQL und Python gehalten wird, und alles, was verwendet wird, um Ergebnisse anzuzeigen und zu formatieren, die in Excel, VBA amp XML gespeichert sind. In den folgenden Abschnitten stelle ich die Voraussetzung für die Entwicklung eines solchen Ansatzes und eine Schritt für Schritt Anleitung, die erklärt, wie BERT verwendet werden könnte, um einfach Daten von R nach Excel mit minimalem VBA-Code zu übergeben. 1 8211 BERT von diesem Link herunterladen und installieren. Sobald die Installation abgeschlossen ist, sollten Sie ein neues Add-Ins-Menü in Excel mit den Schaltflächen wie unten gezeigt haben. Dies ist, wie BERT in Excel materialisiert. 2 8211 Herunterladen und Installieren des benutzerdefinierten UI-Editors. Der benutzerdefinierte UI-Editor ermöglicht das Erstellen von benutzerdefinierten Menüs und Schaltflächen im Excel-Band. Hier finden Sie eine Schritt-für-Schritt-Prozedur. Schritt für Schritt Anleitung 1 8211 R Code: Die untenstehende R-Funktion ist ein sehr einfaches Stück Code zur Veranschaulichung nur. Es berechnet und gibt die Residuen aus einer linearen Regression zurück. Das wollen wir in Excel abrufen. Speichern Sie diese in einer Datei namens myRCode. R (jeder andere Name ist in Ordnung) in einem Verzeichnis Ihrer Wahl. 2 8211 funktionen. R in BERT. Wählen Sie aus Excel das Add-Ins - gt Home Directory aus und öffnen Sie die Datei function. R. Fügen Sie in dieser Datei den folgenden Code ein. Stellen Sie sicher, dass Sie den richtigen Pfad einfügen. Dies ist nur Sourcing in BERT die R-Datei, die Sie oben erstellt. Dann speichern und schließen Sie die Datei functions. R. Sollten Sie die in Schritt 1 erstellte R-Datei ändern wollen, müssen Sie sie mit dem BERT-Button 8220Reload Startup File8221 aus dem Add-Ins-Menü in Excel 3 8211 in Excel neu laden: Eine Datei mit dem Namen myFile. xslm erstellen und speichern (Jeder andere name ist gut). Dies ist eine Makro-fähige Datei, die Sie im Verzeichnis Ihrer Wahl speichern. Sobald die Datei gespeichert ist, schließen Sie es. 4 8211 Öffnen Sie die oben erstellte Datei im Custom UI Editor: Sobald die Datei geöffnet ist, fügen Sie den folgenden Code ein. Sie sollten so etwas im XML-Editor haben: Im Wesentlichen erstellt dieses Stück XML-Code ein zusätzliches Menü (RTrader), eine neue Gruppe (Meine Gruppe) und eine benutzerdefinierte Schaltfläche (New Button) im Excel-Band. Sobald you8217re getan ist, öffnen Sie myFile. xslm in Excel und schließen Sie den benutzerdefinierten Benutzeroberteil-Editor. Du solltest so etwas sehen 5 8211 VBA-Editor öffnen In myFile. xlsm füge ein neues Modul ein. Fügen Sie den Code unten in das neu erstellte Modul ein. Dadurch werden die bisherigen Ergebnisse im Arbeitsblatt gelöscht. 6 8211 Klicken Sie auf Neue Schaltfläche. Gehen Sie nun wieder in die Kalkulationstabelle und klicken Sie im RTrader-Menü auf die Schaltfläche 8220New Button8221. Du solltest so etwas wie das unten erscheinen lassen. Der Leitfaden oben ist eine sehr grundlegende Version dessen, was mit BERT erreicht werden kann, aber es zeigt Ihnen, wie Sie die Kraft von mehreren spezifischen Werkzeugen kombinieren können, um Ihre eigene benutzerdefinierte Anwendung zu erstellen. Aus meiner Perspektive ist das Interesse eines solchen Ansatzes die Fähigkeit, zusammen R und Excel offensichtlich zusammenzukleben, aber auch über XML (und Batch) Stücke von Code von Python, SQL und mehr einzuschließen. Das ist genau das, was ich brauchte Schließlich wäre ich neugierig zu wissen, ob jemand irgendwelche Erfahrungen mit BERT hat. 19. August 2016, 9:26 Uhr Beim Testen von Handelsstrategien ist ein gemeinsamer Ansatz, den Anfangsdatensatz in die Beispieldaten aufzuteilen: den Teil der Daten, der entworfen ist, um zu kalibrieren Das Modell und aus den Beispieldaten: der Teil der Daten, die verwendet werden, um die Kalibrierung zu validieren und sicherzustellen, dass die Leistung, die in der Probe erstellt wird, in der realen Welt reflektiert wird. Als Faustregel können etwa 70 der Anfangsdaten für die Kalibrierung (d. h. in der Probe) und 30 für die Validierung (d. h. aus der Probe) verwendet werden. Dann hilft ein Vergleich der In und Out von Beispieldaten zu entscheiden, ob das Modell robust genug ist. Dieser Beitrag zielt darauf ab, einen Schritt weiter zu gehen und stellt eine statistische Methode zur Verfügung, um zu entscheiden, ob die aus den Beispieldaten im Einklang mit dem war, was in der Stichprobe erstellt wurde. In der Grafik unterhalb der blauen Bereich stellt die aus der Probe Leistung für eine meiner Strategien. Eine einfache visuelle Inspektion zeigt eine gute Passform zwischen der in und aus der Probe Leistung aber welchen Grad des Vertrauens habe ich in diesem In diesem Stadium nicht viel und das ist das Problem. Was wirklich benötigt wird, ist ein Maß für die Ähnlichkeit zwischen dem In und aus den Beispieldatensätzen. In statistischer Hinsicht könnte dies als die Wahrscheinlichkeit, dass die in und aus der Probe Leistung Zahlen aus der gleichen Verteilung übersetzt werden übersetzt werden. Es gibt einen nicht parametrischen statistischen Test, der genau das tut: der Kruskall-Wallis Test. Eine gute Definition dieses Tests konnte auf R-Tutor gefunden werden 8220A Sammlung von Datenproben sind unabhängig, wenn sie aus nicht verwandten Populationen kommen und die Proben sich nicht gegenseitig beeinflussen. Mit dem Kruskal-Wallis-Test. Können wir entscheiden, ob die Populationsverteilungen identisch sind, ohne davon auszugehen, dass sie der Normalverteilung folgen.8221 Der zusätzliche Vorteil dieses Tests nimmt keine normale Verteilung an. Es gibt andere Tests der gleichen Art, die in diesen Rahmen passen könnte. Der Mann-Whitney-Wilcoxon-Test oder die Kolmogorov-Smirnov-Tests passen perfekt zu dem Rahmen, der hier beschrieben wird, aber das geht über den Rahmen dieses Artikels hinaus, um die Vor - und Nachteile von jedem dieser Tests zu besprechen. Eine gute Beschreibung zusammen mit R-Beispielen finden Sie hier. Hier ist der Code, der verwendet wird, um das obige Diagramm und die Analyse zu erzeugen: Im obigen Beispiel ist die Abtastperiode länger als die aus der Stichprobenperiode, daher habe ich zufällig 1000 Teilmengen der in Beispieldaten erstellt, die jeweils dieselbe Länge haben wie die aus Der Beispieldaten. Dann habe ich jede in Probe Teilmenge gegen die aus der Probe Daten getestet und ich habe die p-Werte aufgezeichnet. Dieser Prozess schafft nicht einen einzigen p-Wert für den Kruskall-Wallis-Test, sondern eine Verteilung, die die Analyse robuster macht. In diesem Beispiel liegt der Mittelwert der p-Werte weit über null (0,478), was anzeigt, dass die Nullhypothese akzeptiert werden sollte: Es gibt starke Hinweise darauf, dass die Ein - und Ausstiegsproben aus derselben Verteilung stammen. Wie üblich, was in diesem Beitrag präsentiert wird, ist ein Spielzeugbeispiel, das nur die Oberfläche des Problems kratzt und auf individuelle Bedürfnisse zugeschnitten werden sollte. Allerdings denke ich, dass es einen interessanten und rationalen statistischen Rahmen vorschlägt, um die Ergebnisse der Ergebnisse zu bewerten. Dieser Beitrag wird von den folgenden zwei Beiträgen inspiriert: Vigier Alexandre, Chmil Swann (2007), Auswirkungen verschiedener Optimierungsfunktionen auf die Out-of-Sample-Performance von genetisch entwickelten Handelsstrategien, Prognose der Finanzmärkte Konferenz Vigier Alexandre, Chmil Swann (2010), An Optimierungsprozess zur Verbesserung der Stichprobenkonsistenz, ein Börsenkoffer, JP Morgan Cazenove Equity Quantitative Konferenz, London Oktober 2010 13. Dezember 2015, 14:03 Uhr Die quantitative Forschung impliziert viel Daten knirscht und man braucht saubere und zuverlässige Daten zu Dies erreichen. Was wirklich benötigt wird, ist saubere Daten, die leicht zugänglich sind (auch ohne Internetverbindung). Der effizienteste Weg, dies für mich zu tun, war, einen Satz von csv-Dateien zu pflegen. Offensichtlich kann dieser Prozess in vielerlei Hinsicht behandelt werden, aber ich fand sehr effiziente und einfache Überstunden, um ein Verzeichnis zu pflegen, in dem ich csv-Dateien speichere und aktualisiere. Ich habe eine csv datei pro instrument und jede datei benannt nach dem instrument es enthält. Der Grund, warum ich das tue, ist zweifach: Zuerst möchte ich keine Daten von Yahoo, Google etc8230 herunterladen, jedes Mal, wenn ich eine neue Idee testen möchte, aber noch wichtiger, sobald ich ein Problem erkannt und behoben habe, muss ich das auch nicht haben Mach das mal wieder das nächste Mal, wenn ich das gleiche Instrument brauche. Einfach und doch sehr effizient. Der Prozess ist in der folgenden Tabelle zusammengefasst. In allem, was folgt, nehme ich an, dass Daten von Yahoo kommen. Der Code muss für Daten von Google, Quandl etc8230 geändert werden. Darüber hinaus stelle ich den Prozess der Aktualisierung der täglichen Preisdaten vor. Das Setup wird für höhere Frequenzdaten und andere Arten von Datensätzen unterschiedlich sein (d. h. abweichend von den Preisen). 1 8211 Erstmaliges Herunterladen (listOfInstruments. R amp historicData. R) Die Datei listOfInstruments. R ist eine Datei, die nur die Liste aller Instrumente enthält. Wenn ein Instrument nicht Teil meiner Liste ist (d. h. keine csv-Datei in meinem Datenordner) oder wenn Sie es zum ersten Mal tun, müssen Sie den ursprünglichen historischen Datensatz herunterladen. Das Beispiel unten lädt eine Reihe von ETFs Tagespreise von Yahoo Finance zurück bis Januar 2000 und speichern Sie die Daten in einer CSV-Datei. 2 8211 Aktualisieren vorhandener Daten (updateData. R) Der untenstehende Code startet von vorhandenen Dateien im dedizierten Ordner und aktualisiert sie alle nacheinander. Ich laufe diesen Prozeß jeden Tag, außer wenn ich im Urlaub bin. Um ein neues Instrument hinzuzufügen, führen Sie einfach Schritt 1 oben für dieses Instrument allein. 3 8211 Erstellen einer Batch-Datei (updateDailyPrices. bat) Ein weiterer wichtiger Teil des Jobs ist die Erstellung einer Batch-Datei, die den Aktualisierungsprozess oben automatisiert (I8217m ein Windows-Benutzer). Dies vermeidet das Öffnen von RRStudio und führt den Code von dort aus. Der Code unten ist auf einer. bat-Datei platziert (der Pfad muss mit dem reader8217s Setup geändert werden). Beachten Sie, dass ich eine Ausgabedatei (updateLog. txt) hinzugefügt habe, um die Ausführung zu verfolgen. Der Prozess oben ist extrem einfach, weil er nur beschreibt, wie man tägliche Preisdaten aktualisiert. Ich habe das schon seit einiger Zeit benutzt und es hat mich schon sehr gut für mich gearbeitet. Für fortgeschrittenere Daten und höhere Frequenzen können die Dinge viel schwieriger werden. Wie üblich alle Kommentare begrüßen 23. März 2015, 20:55 Uhr Wenn es darum geht, ein Portfolio von Aktien zu versichern, ist ein Problem, dass es sich um eine absolute Rückkehrstrategie handelt. In der ehemaligen muss man mehr Aktien halten als in den späteren, wo überhaupt keine Aktien vorhanden sind, wenn es nicht gut genug gibt. Der Grund dafür ist der Tracking Error. Dies ist definiert als die Standardabweichung der Portfolio-Rendite abzüglich der Benchmark-Rendite. Je weniger Bestände gegenüber einem Benchmark gehalten werden, desto höher ist der Tracking-Error (z. B. höheres Risiko). Die nachfolgende Analyse ist weitgehend durch das Buch 8220Active Portfolio Management8221 von Grinold amp Kahn inspiriert. Dies ist die Bibel für alle, die daran interessiert sind, ein Portfolio gegen einen Benchmark zu führen. Ich ermutige jeden mit einem Interesse an dem Thema, das Buch von Anfang bis Ende zu lesen. It8217s sehr gut geschrieben und legt die Grundlagen des systematischen aktiven Portfoliomanagements (ich habe keine Zugehörigkeit zum Redakteur oder den Autoren). 1 8211 Faktoranalyse Hier versuchen wir, die Bestände im Anlageuniversum so genau wie möglich auf eine Forward-Return-Basis zu richten. Viele Menschen kamen mit vielen Werkzeugen und unzählige Varianten dieser Werkzeuge wurden entwickelt, um dies zu erreichen. In diesem Beitrag konzentriere ich mich auf zwei einfache und weit verbreitete Metriken: Information Coefficient (IC) und Quantiles Return (QR). 1.1 8211 Informationskoeffizient Der Horizont für die Forward Return muss vom Analytiker und it8217s eine Funktion der Strategie8217s Umsatz und der Alpha-Zerfall definiert werden (dies wurde Gegenstand umfangreicher Forschung). Offensichtlich müssen ICs in absoluten Zahlen so hoch wie möglich sein Für den scharfen Leser, im Buch von Grinold amp Kahn, wird eine Formel verknüpft Information Ratio (IR) und IC gegeben: mit der Breite ist die Anzahl der unabhängigen Wetten (Trades). Diese Formel ist als Grundgesetz des aktiven Managements bekannt. Das Problem ist, dass oft, definieren Breite genau ist nicht so einfach wie es klingt. 1.2 8211 Quantile Rückkehr Um eine genauere Schätzung der Faktor-Vorhersagekraft zu erhalten, ist es notwendig, einen Schritt weiter zu gehen und Gruppenbestände durch Quantil von Faktorwerten zu analysieren und dann die durchschnittliche Vorwärtsrendite (oder jede andere zentrale Tendenzmetrik) von jedem zu analysieren Quantile Die Nützlichkeit dieses Werkzeuges ist einfach. Ein Faktor kann einen guten IC haben, aber seine prädiktive Kraft könnte auf eine kleine Anzahl von Aktien begrenzt sein. Das ist nicht gut, da ein Portfoliomanager innerhalb des gesamten Universums Aktien auswählen muss, um seinen Tracking-Fehler-Constraint zu erfüllen. Gute Quantile Rückkehr sind durch eine monotone Beziehung zwischen den einzelnen Quantilen und Forward Returns gekennzeichnet. Alle Bestände im SampP500 Index (zum Zeitpunkt des Schreibens). Offensichtlich gibt es eine Überlebensschifffahrt: Die Liste der Bestände im Index hat sich zwischen dem Beginn und dem Ende der Stichprobenperiode deutlich verändert, aber es ist nur für die Veranschaulichung gut genug. Der Code unten lädt einzelne Aktienkurse im SampP500 zwischen Jan 2005 und heute (es dauert eine Weile) und verwandelt die Rohpreise in den letzten 12 Monaten und im letzten Monat. Der erstere ist unser Faktor, dieser wird als Vorwärtsrückmeldung verwendet. Unten ist der Code zur Berechnung von Information Coefficient und Quantiles Return. Beachten Sie, dass ich in diesem Beispiel Quintile verwendet habe, aber jede andere Gruppierungsmethode (Terciles, Deciles etc8230) verwendet werden kann. Es hängt wirklich von der Stichprobengröße ab, was Sie erfassen möchten und ob Sie einen breiten Überblick haben oder sich auf Vertriebsschwänze konzentrieren möchten. Für die Schätzung der Renditen innerhalb jedes Quintils wurde Median als zentraler Tendenzschätzer verwendet. Diese Maßnahme ist viel weniger empfindlich gegenüber Ausreißern als arithmetisches Mittel. Und schließlich der Code, um die Quantiles Return Chart zu produzieren. 3 8211 Wie man die oben genannten Informationen ausnutzt In der Grafik oben Q1 ist die letzte nach 12 Monaten Rückkehr und Q5 am höchsten. Es gibt eine fast monotone Zunahme der Quantile Rückkehr zwischen Q1 und Q5, die deutlich zeigt, dass Aktien, die in Q5 fallen, übertreffen diejenigen, die in Q1 um etwa 1 pro Monat fallen. Dies ist sehr wichtig und mächtig für solch einen einfachen Faktor (nicht wirklich eine Überraschung though8230). Daher gibt es größere Chancen, den Index zu übertreffen, indem sie die Bestände, die in Q5 fallen, überlagern und die im Vergleich zum Benchmark in Q1 fallenden Personen untergewichten. Ein IC von 0,0206 könnte nicht viel in sich selbst bedeuten, aber es8217s signifikant von 0 und zeigt eine gute prädiktive Macht der letzten 12 Monate Rückkehr insgesamt. Formale Signifikanztests können ausgewertet werden, aber das geht über den Rahmen dieses Artikels hinaus. 4 8211 Praktische Einschränkungen Das obige Rahmenwerk eignet sich hervorragend für die Bewertung von Investitionen Faktor8217s Qualität jedoch gibt es eine Reihe von praktischen Einschränkungen, die für die Umsetzung des realen Lebens angegangen werden müssen: Rebalancing. In der obigen Beschreibung hat it8217s davon ausgegangen, dass das Portfolio am Ende eines jeden Monats vollständig ausgeglichen wird. Dies bedeutet, dass alle Aktien, die in Q1 fallen, untergewichtet sind und alle Aktien, die in Q5 fallen, im Vergleich zur Benchmark übergewichtet sind. Dies ist aus praktischen Gründen nicht immer möglich: manche Bestände könnten aus dem Anlageuniversum ausgeschlossen werden, es bestehen Einschränkungen für die Industrie oder das Sektorgewicht, es bestehen Einschränkungen für den Umsatz usw8230 Transaktionskosten. Dies ist bei der obigen Analyse nicht berücksichtigt worden. Dies ist eine ernsthafte Bremse für die Umsetzung des realen Lebens. Umsatzüberlegungen werden in der Regel im realen Leben in Form einer Strafe auf Faktorqualität umgesetzt. Übertragungskoeffizient Dies ist eine Erweiterung des Grundgesetzes des aktiven Managements und es entspannt die Annahme von Grinold8217s Modell, dass Manager keine Einschränkungen, die sie von der Übersetzung ihrer Investitionen Einblicke direkt in Portfolio-Wetten auszuschließen. Und schließlich, ich bin begeistert von dem, was in weniger als 80 Zeilen Code mit R8230 erreicht werden kann. Wie üblich alle Kommentare willkommen 14. März 2014, 13:07 Die Frage sollte man sich immer fragen, wenn man technische Indikatoren verwendet, was wäre ein Ziel Kriterien, um Indikatorparameter auszuwählen (zB warum mit 14 Tagen RSI anstatt 15 oder 20 Tage). Genetische Algorithmen (GA) sind gut geeignet Werkzeuge, um diese Frage zu beantworten. In diesem Beitrag I8217ll zeigen Sie, wie Sie das Problem in R einrichten. Bevor ich die übliche Erinnerung vorangehe: Was ich in diesem Beitrag präsentiere, ist nur ein Spielzeugbeispiel und keine Einladung zu investieren. Es ist auch keine fertige Strategie, sondern eine Forschungsidee, die weiter erforscht, entwickelt und auf individuelle Bedürfnisse zugeschnitten werden muss. Was sind genetische Algorithmen Die beste Beschreibung von GA, auf die ich stieß, kommt von Cybernatic Trading ein Buch von Murray A. Ruggiero. 8220Genetische Algorithmen wurden von John Holland Mitte 1970 erfunden, um harte Optimierungsprobleme zu lösen. Diese Methode verwendet natürliche Auswahl, Überleben der fittest8221. Der allgemeine Prozess folgt den folgenden Schritten: Kodieren Sie das Problem in Chromosomen Verwenden Sie die Codierung, entwickeln Sie eine Fitness-Funktion für die Verwendung bei der Bewertung jedes Chromosomen8217s Wert bei der Lösung eines gegebenen Problems Initialisieren Sie eine Population von Chromosomen Auswerten jedes Chromosom in der Bevölkerung Erstellen Sie neue Chromosomen durch Paarung von zwei Chromosomen Dies geschieht durch Muting und Rekombination von zwei Eltern, um zwei Kinder zu bilden (Eltern werden zufällig ausgewählt, aber durch ihre Fitness vorgespannt) Bewerten Sie das neue Chromosom Löschen Sie ein Mitglied der Bevölkerung, das weniger fit ist als das neue Chromosom und legen Sie das neue Chromosom in die Bevölkerung ein . Wenn die Stop-Kriterien erreicht sind (maximale Anzahl von Generationen, Fitness-Kriterien ist gut genug8230) dann wieder das beste Chromosom alternativ gehen Sie zu Schritt 4 Aus einer Handelsperspektive GA sind sehr nützlich, weil sie gut im Umgang mit hoch nichtlinearen Problemen sind. Allerdings zeigen sie einige böse Features, die erwähnenswert sind: Über Montage: Dies ist das Hauptproblem und it8217s hinunter zum Analytiker, um das Problem in einer Weise einzurichten, die dieses Risiko minimiert. Rechenzeit. Wenn das Problem nicht richtig definiert ist, kann es extrem lang sein, eine anständige Lösung zu erreichen und die Komplexität steigt exponentiell mit der Anzahl der Variablen an. Daher die Notwendigkeit, die Parameter sorgfältig auszuwählen. Es gibt mehrere R-Pakete, die sich mit GA beschäftigen, ich entschied mich für die häufigsten: rgenoud Tägliche Schlusskurse für die meisten flüssigen ETFs von Yahoo Finanzen gehen zurück bis Januar 2000. Die in der Probe Zeitraum geht von Januar 2000 bis Dezember 2010. Die Out of Die Sample-Periode beginnt im Januar 2011. Die Logik ist wie folgt: Die Fitness-Funktion wird über die im Sample-Zeitraum optimiert, um eine Reihe von optimalen Parametern für die ausgewählten technischen Indikatoren zu erhalten. Die Performance dieser Indikatoren wird dann in der Periodendauer ausgewertet. Aber vorher müssen die technischen Indikatoren ausgewählt werden. Der Aktienmarkt weist zwei Hauptmerkmale auf, die jedem mit einigen Handelserfahrungen bekannt sind. Langfristige Dynamik und kurzfristige Umkehrung. Diese Features können in der Zeit der technischen Indikatoren übersetzt werden durch: gleitende Durchschnitte kreuzen und RSI. Dies stellt einen Satz von 4 Parametern dar: Rückblickperioden für lange und kurzfristige Bewegungsdurchschnitte, Rückblickzeit für RSI und RSI-Schwelle. Die Sätze von Parametern sind die Chromosomen. Das andere Schlüsselelement ist die Fitnessfunktion. Vielleicht möchten wir so etwas wie: maximale Rendite oder Sharpe-Verhältnis oder minimale durchschnittliche Drawdown verwenden. Im folgenden entschied ich mich, das Sharpe-Verhältnis zu maximieren. Die R-Implementierung ist ein Satz von 3 Funktionen: fitnessFunction. Definiert die Fitness-Funktion (z. B. maximale Sharpe-Ratio), die innerhalb der GA-Engine-TradingStatistics verwendet werden soll. Zusammenfassung der Handelsstatistiken für die Ein - und Ausstiegsphasen für Vergleichszwecke genoud. Der GA-Motor aus dem rgenoud-Paket Die genoud-Funktion ist ziemlich komplex, aber ich werde nicht erklären, was jeder Parameter bedeutet, wie ich diesen Beitrag kurz halten will (und die Dokumentation ist wirklich gut). In der nachstehenden Tabelle präsentiere ich für jedes Instrument die optimalen Parameter (RSI Rückblickperiode, RSI Schwelle, Short Term Moving Average und Long Term Moving Average) zusammen mit dem In und Out der Musterhandelsstatistik. Bevor ich die obigen Ergebnisse kommentiere, möchte ich einige wichtige Punkte erklären. Um die oben definierte Logik anzupassen, habe ich die Parameter begrenzt, um sicherzustellen, dass die Rückblickperiode für den langfristig gleitenden Durchschnitt immer länger ist, dass der kürzere gleitende Durchschnitt. Ich habe auch den Optimierer eingeschränkt, nur die Lösungen mit mehr als 50 Trades in der Probeperiode zu wählen (z. B. statistische Signifikanz). Insgesamt sind die Stichproben von weitem nicht beeindruckend. Die Renditen sind niedrig, auch wenn die Anzahl der Trades klein ist, um das Ergebnis wirklich bedeutend zu machen. Allerdings gibt es einen erheblichen Verlust an Effizienz zwischen in und außerhalb der Probe Zeitraum für Japan (EWJ), die sehr wahrscheinlich bedeutet, über Montage. Dieser Beitrag soll dem Leser die Werkzeuge geben, um GA in einem quantitativen Handelsrahmen richtig zu nutzen. Noch einmal ist es ein Beispiel, das weiter verfeinert werden muss. Ein paar potenzielle Verbesserung zu erforschen wäre: Fitness-Funktion. Die Maximierung des Sharpe-Verhältnisses ist sehr einfach. Eine Funktion von 8220smarter8221 würde sicherlich das Stichprobenmusterprotokoll verbessern. Wir versuchen, ein sehr einfaches Muster zu erfassen. Eine genauere Musterforschung ist definitiv erforderlich. Optimierung Es gibt viele Möglichkeiten, die Art und Weise, wie die Optimierung durchgeführt wird, zu verbessern. Dies würde sowohl die Berechnungsgeschwindigkeit als auch die Rationalität der Ergebnisse verbessern. Der in diesem Beitrag verwendete Code ist auf einem Gist-Repository verfügbar. Wie üblich alle Kommentare willkommen 28. Februar 2014, 15:52 Uhr Es gibt eine enorme Literatur sowohl akademisch als auch empirisch über die Marktprognose. Die meiste Zeit vermischt es zwei Marktmerkmale: Größe und Richtung. In diesem Artikel möchte ich mich auf die Ermittlung der Marktrichtung konzentrieren. Das Ziel, das ich mich gesetzt habe, ist es, Marktbedingungen zu identifizieren, wenn die Chancen deutlich auf einen Auf - oder Abwärtsmarkt vorgespannt sind. Dieser Beitrag gibt ein Beispiel dafür, wie CART (Klassifikation und Regressionsbäume) in diesem Zusammenhang verwendet werden kann. Bevor ich die übliche Erinnerung vorangehe: Was ich in diesem Beitrag präsentiere, ist nur ein Spielzeugbeispiel und keine Einladung zu investieren. Es ist auch keine fertige Strategie, sondern eine Forschungsidee, die weiter erforscht, entwickelt und auf individuelle Bedürfnisse zugeschnitten werden muss. 1 8211 Was ist CART und warum benutzt es aus Statistiken, CART sind eine Reihe von Techniken für die Klassifizierung und Vorhersage. Die Technik zielt darauf ab, Regeln zu erstellen, die den Wert einer Outcome - (Ziel-) Variablen aus bekannten Werten von Prädiktor - (erläuternden) Variablen vorhersagen. Es gibt viele verschiedene Implementierungen, aber sie sind alle teilen ein allgemeines Merkmal und das ist, was ich interessiert in. Aus Wikipedia, Algorithmen für den Bau von Entscheidungsbäumen in der Regel arbeiten Top-down, indem Sie eine Variable in jedem Schritt, der am besten Splitt der Satz von Elementen. Verschiedene Algorithmen verwenden unterschiedliche Metriken für die Messung von 8220best8221. Diese messen im Allgemeinen die Homogenität der Zielvariablen innerhalb der Teilmengen. Diese Metriken werden auf jede Kandidatensatzmenge angewendet, und die resultierenden Werte werden kombiniert (z. B. gemittelt), um ein Maß für die Qualität des Splits zu liefern. CART-Methodik zeigt einige Eigenschaften, die für die Marktanalyse sehr gut geeignet sind: Nicht parametrisch. CART kann jede Art von statistischen Verteilungen behandeln Nicht linear. CART kann ein großes Spektrum der Abhängigkeit zwischen Variablen verarbeiten (z. B. nicht auf lineare Beziehungen beschränkt) Robust zu Ausreißern Es gibt verschiedene R-Pakete, die sich mit rekursiver Partitionierung beschäftigen, ich benutze hier für die Bäume Schätzung und rpart. plot für Bäume Zeichnung. 2 8211 Datenverstärker Experiment Design Tägliche OHLC Preise für die meisten flüssigen ETFs von Januar 2000 bis Dezember 2013 extrahiert aus Google Finanzen. Die Stichprobenperiode geht von Januar 2000 bis Dezember 2010, der Rest des Datensatzes ist der Stichzeitraum. Vor dem Ausführen einer Art von Analyse muss der Datensatz für die Aufgabe vorbereitet werden. Die Zielvariable ist die ETF-wöchentliche Vorwärtsrendite, die als zwei Zustände des Weltergebnisses (UP oder DOWN) definiert ist. Wenn wöchentlich vorwärts gt 0 dann der Markt im UP-Zustand, DOWN-Staat ansonsten Die erklärenden Variablen sind eine Reihe von technischen Indikatoren aus dem anfänglichen täglichen OHLC-Datensatz abgeleitet. Jeder Indikator stellt ein gut dokumentiertes Marktverhalten dar. Um das Rauschen in den Daten zu reduzieren und zu versuchen, robuste Beziehungen zu identifizieren, wird jede unabhängige Variable als ein binäres Ergebnis betrachtet. Volatilität (VAR1). Hohe Volatilität ist in der Regel mit einem Down-Markt und niedrige Volatilität mit einem up-Markt verbunden. Die Volatilität ist definiert als die 20 Tage rohe ATR (Average True Range) auf ihren gleitenden Durchschnitt (MA) verbreitet. Wenn roh ATR gt MA dann VAR1 1, sonst VAR1 -1. Kurzfristiger Impuls (VAR2). Der Aktienmarkt weist kurzfristiges Impulsverhalten auf, das hier durch eine 5 Tage einfache gleitende Durchschnitte (SMA) erfasst wird. Wenn Preis gt SMA dann VAR2 1 sonst VAR2 -1 Langzeitmoment (VAR3). Der Aktienmarkt zeigt ein langfristiges Impulsverhalten, das hier durch eine 50 Tage einfache gleitende Durchschnitte (LMA) erfasst wird. Wenn Preis gt LMA dann VAR3 1 sonst VAR3 -1 Kurzfristige Umkehr (VAR4). Dies wird von der CRTDR erfasst, die für Close Relative To Daily Range steht und wie folgt berechnet wird:. Wenn CRTDR gt 0,5, dann VAR4 1 sonst VAR4 -1 Autokorrelation Regime (VAR5). Der Aktienmarkt tendiert dazu, durch Perioden negativer und positiver Autokorrelationsregelungen zu gehen. Wenn die Autokorrelation über die letzten 5 Tage gt 0 zurückgekehrt wird, dann VAR5 1 sonst VAR5 -1 stelle ich ein Baumbeispiel mit einigen Erklärungen an. Im obigen Baum ist der Weg zum Knoten 4: VAR3 gt0 (Langzeitmomentum gt 0) und VAR4 Gt 0 (CRTDR gt 0). Das rote Rechteck zeigt an, dass es sich um ein DOWN-Blatt handelt (z. B. Terminalknoten) mit einer Wahrscheinlichkeit von 58 (1 8211 0,42). In Marktbegriffen bedeutet dies, dass, wenn Long Term Momentum ist und CRTDR ist gt 0,5 dann die Wahrscheinlichkeit einer positiven Rendite nächste Woche ist 42 auf der Grundlage der in Beispiel Probe Daten. 18 gibt den Anteil des Datensatzes an, der in diesen Endknoten fällt (z. B. Blatt). Es gibt viele Möglichkeiten, den oben genannten Ansatz zu verwenden, ich entschied mich, alle möglichen Bäume zu schätzen und zu kombinieren. Von den in Beispieldaten sammle ich alle Blätter von allen möglichen Bäumen und ich sammle sie in eine Matrix. Dies ist die 8220rules Matrix8221 geben die Wahrscheinlichkeit der nächsten Woche beeing UP oder DOWN. Ich verwende die Regeln in der obigen Matrix auf die aus Beispieldaten (Januar 2011 8211 Dez 2013) und ich vergleiche die Ergebnisse mit dem realen Ergebnis. Das Problem mit diesem Ansatz ist, dass ein einzelner Punkt (Woche) in mehrere Regeln fallen kann und sogar zu UP - und DOWN-Regeln gleichzeitig gehören kann. Deshalb wende ich ein Abstimmungsverfahren an. Für eine gegebene Woche summiere ich alle Regeln, die für diese Woche gelten, was eine 1 für eine UP-Regel und -1 für eine DOWN-Regel gibt. Wenn die Summe größer als 0 ist, wird die Woche als UP klassifiziert, wenn die Summe negativ ist it8217s eine DOWN-Woche und wenn die Summe gleich 0 ist, wird es in dieser Woche keine Position geben (return 0). Die obige Methodik wird auf a angewendet Satz von sehr flüssigen ETFs. Ich zeichne unterhalb der Stichproben-Equity-Kurven zusammen mit der Buy-and-Hold-Strategie im gleichen Zeitraum. Die anfänglichen Ergebnisse scheinen ermutigend zu sein, auch wenn die Qualität des Ergebnisses durch das Instrument sehr unterschiedlich ist. Allerdings gibt es einen riesigen Raum für Verbesserungen. Ich stelle noch einige Richtungen für weitere Analyse Path Optimalität. Der hier verwendete Algorithmus zur Definition der Bäume ist bei jedem Split optimal, aber er garantiert die Optimalität des Weges. Das Hinzufügen einer Metrik zur Messung der Optimalität des Pfades würde sicherlich die obigen Ergebnisse verbessern. Andere Variablen. Ich wählte die erklärenden Variablen ausschließlich auf Erfahrung. Es ist sehr wahrscheinlich, dass diese Wahl weder gut noch optimal ist. Backtest-Methodik Ich habe eine einfache In und Out der Beispielmethodik verwendet. In einem formelleren Backtest würde ich lieber ein rollenden oder expandierenden Fenster von in und aus Beispiel Sub-Perioden (z. B. Walk-Forward-Analyse) Wie üblich, alle Kommentare willkommen


No comments:

Post a Comment