Suche

» erweiterte Suche » Sitemap

  • Sie befinden sich:
  • Specials
  • »
  • Igelverlag
  • »
  • RWS
  • »
  • Automatisierter Handel. Hat der Mensch am Finanzmarkt noch eine Daseinsberechtigung?

RWS


» Bild vergrößern
» weitere Bücher zum Thema


» Buch empfehlen
» Buch bewerten
Produktart: Buch
Verlag: Igel Verlag
Erscheinungsdatum: 09.2016
AuflagenNr.: 1
Seiten: 74
Abb.: 10
Sprache: Deutsch
Einband: Paperback

Inhalt

Das laute Zeitalter der Finanzmärkte, bei denen Händler auf dem Börsenparkett einen erbitterten Preiskampf geführt haben, sind vorbei. Zunehmend drängen sich hochentwickelte und leistungsstarke Rechenzentren in den Vordergrund des globalen Finanzgeschehens. Bei den unbegrenzt erscheinenden Möglichkeiten, die die neue Art der automatisierten Datenverarbeitung bietet, stellt sich die Frage, inwieweit das menschliche Handeln diesen Prozess noch unterstützen kann. Unterbewusste Empfindungen aus der Verankerungsheuristik oder die Selbstüberschätzung stören das Handelsgeschehen ähnlich wie die biologischen Limitierungen durch Schlaf und Aufmerksamkeitsspanne. Vollautomatisierte Handelsalgorithmen sind in ihrer Geschwindigkeit nur durch die physikalischen Grenzen der Lichtgeschwindigkeit begrenzt und besitzen gleichzeitig eine unglaublich niedrige Fehleranfälligkeit. Doch können Maschinen die komplexen Zusammenhänge der Weltwirtschaft richtig interpretieren und sind statisch implementierte Algorithmen in der Lage, langfristig erfolgreich am Markt zu agieren? Wie ist automatisierter Handel aus wirtschaftlicher, moralischer und rechtlicher Sicht einzuordnen? Die Beantwortung dieser komplexen Fragestellungen erfordert einen tiefen Blick in die aktuelle Fachliteratur und aufbauend darauf weiterführende Gedanken und Ideen. Das vorliegende Buch betrachtet die Vor- und Nachteile von menschlichen und maschinellen Handelsentscheidungen aus verschiedensten Blickwinkeln und führt zu einem Ergebnis der optimalen Zusammenarbeit beider Welten. Das Fazit beinhaltet sowohl theoretische Modelle als auch Inspirationen zur praktischen Umsetzung.

Leseprobe

Textprobe: Kapitel 5.2.2.: Verarbeitung: Innerhalb der Datenverarbeitung wird aus den Rohdaten ein Fundament an aggregierten Daten zusammengestellt, das als Basis für eine Handelsentscheidung dient. Die Aggregation bedeutet die Verdichtung von relevanten Datensätzen. Dies impliziert, dass irrelevante Daten nicht in der späteren Ergebnismenge inkludiert sind. Strategische Richtlinien und finanzwirtschaftliche Dogmen geben, wie bereits erwähnt, Aufschluss über die Relevanz von Informationen. Daten, die auf technischer Ebene beschädigt sind, verlieren ihren Informationsgehalt und werden ausgefiltert. Die Prüfung auf technische Validität ist optimalerweise maschinell durchzuführen, da dies schneller ist und eine geringere Fehlerquote aufweist. Nachdem die Datenmenge ausschließlich technisch valide Daten enthält, können diese gefiltert und aggregiert werden. Da sich eine Anlage über eine Zeitspanne erstreckt, ist der Parameter Zeit auch bei den Daten elementar, um den Kontext zu erhalten. Um beispielsweise Aussagen über die Entwicklung des Euros zu treffen, können Preisdaten ohne einen Zeitstempel nicht interpretiert werden. Demnach müssen alle beschafften Daten einen zeitlichen Kontext besitzen. Weiterhin ist festzustellen, dass die ausschlaggebenden Daten wie Preise, Nachrichten oder Fundamentaldaten immer in numerischen oder textuellen Formaten publiziert werden. Der Prozessschritt der Verarbeitung lässt sich daher unterteilen in die Verarbeitung von Textdaten und numerischen Daten. Numerische Finanzdaten werden grundsätzlich mithilfe statistischer oder finanzmathematischer Methoden aggregiert. Diese basieren auf mathematischen Berechnungen, die von Computern vollständig übernommen werden können. Besonders aufgrund der im Finanzbereich herrschenden großen Datenbasis und der dadurch benötigten Rechenleistung bringt die maschinelle Verarbeitung zeitliche und qualitative Vorteile. Textdaten sind aufgrund ihrer Syntax und Semantik schwerer zu aggregieren als numerische Werte. Am Finanzmarkt stellen Marktberichte, Nachrichten oder Regulierungsrichtlinien Beispiele für Textdaten dar. Texte sind in der Lage, Emotionen des Autors abzubilden. Diese aus einem Text fehlerfrei zu extrahieren, ist gegenwärtiger Forschungsstand. Ansätze der Sentiment-Analyse versuchen anhand von statistischen Verfahren zu bestimmen, ob ein bestimmter Text positiv oder negativ behaftet ist. Sprachliche Phänomene wie Ironie und exotische Verneinungen sind dabei Barrieren, die eine programmatische Auswertung erschweren.

Über den Autor

Tobias Drechsel wurde 1994 in Leipzig geboren. Im Studium der Wirtschaftsinformatik an der HTW Berlin sammelte er Impressionen aus fachlichen Thematiken der Wirtschaft und technischen Modellen der Informatik. Expertise in finanzwirtschaftlichen Bereichen sammelte er unter anderem während eines Auslandssemesters an der Shanghai Finance University und der Berufstätigkeit in einer führenden Unternehmensberatung im Bereich IT-Finance. Vor diesem Hintergrund erörtert der Autor die Fragestellungen im Rahmen des maschinellen und manuellen Treffens von Handelsentscheidung.

weitere Bücher zum Thema

Bewerten und kommentieren

Bitte füllen Sie alle mit * gekennzeichenten Felder aus.