AWS DMS

DWH-Modernisierung mit dem AWS Database Migration Service

AWSLogoIm Rahmen einer Modernisierungsstrategie für die eigene BI-Umgebung steht inzwischen eine große Bandbreite verschiedenster neuer Technologien zur Verfügung. Diese sollten im Rahmen der Erarbeitung eines eines Konzeptes berücksichtigt werden. Die Potentiale, die die Nutzung von Clouddiensten bietet, sind definitiv eine der zu prüfenden Möglichkeiten bei der Modernisierung eines Data-Warehouses (DWH). Denn im Vergleich zu anderen neuen Technologien haben Clouddienste den Hypestatus bereits verlassen und sind auch in großen Unternehmen (z.B. Deutsche Bahn AG) inzwischen ein Teil der Gesamtstrategie der IT.

Da mit dem Wechsel der BI-Umgebung in die Cloud sowieso eine Ablösung der On-Premises Infrastruktur ein Teil der Aufgabe ist können in diesem Zuge auch gleich noch weitere Potenziale erschlossen werden. Diese können sich in Einsparpotenziale, einer Simplifizierung oder auch einer Nutzung schnellerer Technologien für die BI-Umgebung äußern. So kann man z.B. noch die folgenden Punkt andenken:

  • Umstellung auf andere z.B. lizenzfreier Data-Warehouse-Technologien wie PostgreSQL
  • Konsolidieren bestehender BI-Datenbanken durch Schemaanpassung oder Zusammenführung/Auseinanderdividieren von Data-Warehouses
  • Kontinuierliche Replikation von Daten aus dem Quell- in das Zielsystem anstatt einer ad hock Ablösung einer Datenbank durch Einmal-Migration mit der Möglichkeit einer längerfristigen Umstellung aller Applikationen auf eine neue Datenbanktechnologie

Umsetzung in Amazon Web Services (AWS) mit dem Database Migration Service

Amazon bietet mit den Amazon Database Migration Services (AWS DMS) ein umfangreiches Toolset an, um die Migration einer lokalen BI-Umgebung (DWH oder Datenbanken) bzw. deren Replikation in die Amazon-Cloud zu vereinfachen. Die Tools sind darauf angelegt, eine Migration bzw. Replikation strukturiert und transparent zu organisieren und unterstützt bei den Herausforderungen, die bei dieser Art der Aufgabenstellung klassischerweise auftreten. Diese können beispielsweise uneinheitliche Schemaobjekte der verschiedenen BI-Datenbanktechnologien, Notwendigkeit der parallelen Führung einer doppelten Datenhaltung in der Übergangsphase in die Cloud. In AWS sind die Tools darauf ausgelegt, genau dieses zu Gewährleisten.

Migration vs. Replikation in AWS

In AWS wird nicht eindeutig zwischen einer Replikation bzw. Migration unterschieden. Grundsätzlich kann eine Migration ein einmaliger Transfer einer Datenbank mit der Ablösung einer legacy Datenbank verstanden werden, während bei der Replikation eher ein Parallelbetrieb verschiedener Datenbanken verstanden wird. So können zur Erhöhung der Ausfallsicherheit durchaus DWHS oder Datenbanken repliziert werden ohne das eigentliche Ausgangssystem irgendwann abzuschalten.

Bei den meisten Ablösungen von DWHs ist es aber zumeist so, dass diese doppelt vorgehalten werden. Die auf das DWH zugreifenden Applikationen (z.B. Analytic Tools) können häufig nicht einfach parallel mit migriert werden. Daher findet auch bei einer klassischen Migration in einem gewissen zeitlichen Rahmen eine Replikation statt. Daher wird in AWS nur wenig zwischen einer Replikation und Migration unterschieden.

Im Rahmen von AWS ist es wichtig zu verstehen, dass die AWS eigenen Tools im Rahmen der Database Migration Services vor allem Migrationen bzw. Replikationen von und nach AWS unterstützen.

homogene vs. heterogene Migration

In AWS wird grundsätzlich zwischen einer homogenen und einer heterogenen Migration (bzw. Replikation) unterschieden. Diese sind interne Bezeichnung innerhalb von AWS um zu verdeutlichen, dass nicht nur eine Migration oder Replikation innerhalb gleicher Datenbanksysteme (z.B. „homogen“ von Oracle nach Oracle). Auch ein Wechsel der Systeme ist möglich (z.B. „heterogen“ von Oracle nach postgreSQL). Jeder, der eine solche „heterogene“ Migration bereits mal organisiert hat, weiß um die Herausforderungen, die damit verbunden sind.

DMS Task vs. Schema Conversion Tool (SCT) vs. native Migrationstools

In AWS stehen verschiedene Werkzeuge für die Migration bzw. Replikation von DWHs oder einfachen Datenbanken zu Verfügung. Grob formuliert kann ein Task ein Full Load, ein Delta Load oder beides beinhalten. Als kontinuierlicher Dienst ist dieser nicht zeitgebunden sondern repliziert kontinuierlich Daten aus einem Quellsystem in ein Zielsystem. Der Service bietet darüber hinaus auch noch weitere Funktionen um einen Task herum, wie Logs, Benachrichtigungen usw..

Migrations- und Replikationsmöglichkeiten

Auswahlmöglichkeiten für ein Task in DMS

Bei heterogenen Migrationen (siehe unten) kann das notwendige Mapping der Schemata des Quell- und Zielsystems durch das Schema Conversion Tool (SCT) organisiert werden. Dieses ist ein desktopbasierendes und kostenfreies Werkzeug für Windows, Mac und Linux. Dieses erlaubt das Folgende:

  • Kopieren eines Datenbankschemas von einer Quelle auf ein Ziel
  • Konvertieren eines Datenbank- oder Data Warehouse-Schemas
  • Analysieren einer Datenbank, um
    • die Konvertierungskomplexität zu ermitteln
    • mögliche Einschränkungen für die Ausführung auf Amazon RDS zu ermitteln
    • zu ermitteln, ob ein Lizenz-Downgrade möglich ist
  • Konvertieren von eingebettetem SQL-Code in einer Anwendung
  • Migrieren von Data Warehouse-Daten zu Amazon Redshift

Siehe https://aws.amazon.com/de/dms/faqs/ – 07.06.2017

Analyse heterogene Migration

Auswertung einer Analytik im Schema Conversion Tool mit einer Übersicht (links) und einer Detailauswertung (rechts)

Man beachte, dass für die heterogene Migration bzw. Replikation nur bestimmte DWH- bzw. Datenbanksysteme unterstützt werden. Dies sind im Folgenden:

Quelldatenbank Zieldatenbank auf Amazon RDS
Oracle Database Amazon Aurora, MySQL, PostgreSQL, MariaDB
Oracle Data Warehouse Amazon Redshift
Microsoft SQL Server Amazon Aurora, Amazon Redshift, MySQL, PostgreSQL, MariaDB
Teradata Amazon Redshift
IBM Netezza Amazon Redshift
Greenplum Amazon Redshift
HPE Vertica Amazon Redshift
MySQL und MariaDB PostgreSQL
PostgreSQL Amazon Aurora, MySQL, MariaDB
Amazon Aurora PostgreSQL

https://aws.amazon.com/de/dms/ – 26.05.2017

Die Entwicklung geht aber immer weiter. Seit 10. April 2017 wird auch NoSQL-Datenbank MongodDB als Quellsystem sowie Amazon DynamoDB als Sourcesystem unterstützt.

Das SCT migriert die Daten nicht direkt über das Tool, bietet aber eine direkte Integration in ein DMS Task an, so dass mit dem definierten Mapping innerhalb von SCT die Migration bzw. Replikation innerhalb des Task möglich ist.

Zudem stehen auch in AWS die nativen Migrationstools wie Export/Import oder Datapump (Oracle) oder auch pg_dump (potgreSQL) zur Verfügung, unabhängig davon ob die Datenbank im Rahmen von RDS oder auf einer EC2-Instanz läuft.

Kosten

Grundsätzlich werden die einzelnen Tasks in AWS DMS nicht in Rechnung gestellt, d.h. prinzipiell kann eine virtuell unendliche Anzahl von Tasks eingerichtet werden ohne dass es zu einem finanziellen Mehraufwand kommt. Auch das Schema Conversion Tool ist lizenzkostenfrei. Wie üblich bei AWS ist nur die für die Migration benötigte Infrastruktur kostenpflichtig. Kostenfaktor sind vor allem zwei AWS Dienste:

  • Die Migrations- und Replikationstasks werden auf Replikationsinstanzen ausgeführt, deren Betrieb kostenpflichtig ist.
  • Sind AWS-externe Datenbanken an der Migration beteiligt, die via DierectConnect oder VPN an AWS angebunden sind, treten weitere Kosten durch den Datentransfer für die Migration und Replikation auf.

Die aktuelle Preisgestaltung kann direkt von der AWS Webseite abgerufen werden: https://aws.amazon.com/de/dms/pricing/

Fazit

Eine Modernisierungsstrategie für ein Datawarehouse sollte die Migration in die Cloud beinhalten. Als Erweiterung sollte aber auch die Ablösung lizenzgebundener DWH-Systeme durch lizenzfreier Systeme mit angedacht werden, alleine schon um Kostenvorteile zu erwirtschaften. In AWS steht auch das notwendige Werkzeugset zur Verfügung um dieses schnell und transparent zu planen. Mit dem Einsatz des Schema Conversion Tools können die erwarteten Aufwände und Risiken schnell analysiert werden. Man springt so nicht ins kalte Wasser.

Durch die Replikationsmöglichkeit in AWS DMS besteht auch die Möglichkeit gegeben, eine Migration nicht ad hock zu vollziehen sondern über einen längeren Zeitraum um die neue Umgebung testen zu können. Dies bietet so die Möglichkeit auch DWHs und Datenbanken abzulösen die von einer umfangreichen Anzahl von Applikationen genutzt werden und deren ad hock Umstellung auf eine neue Datenbanktechnologie nur mit hohem Aufwand bzw. Risiko verbunden ist.

Zudem erlaubt es diese eine einfache Skalierung von Datenbankservern (auch weltweit verteilt), Einrichtung hochverfügbarer Infrastrukturen sowie on-the-fly Sicherung auf räumlich verteilten Standorte.

E-Commerce goes Marketplaces – Amazon als wichtigen Kanal verstehen

Wer nicht mit der Zeit geht, der geht mit der Zeit. Dieses Sprichwort trifft auf viele, technologisch-getrieben Unternehmensbereiche zu und davon ist auch der Onlinehandel nicht ausgenommen. Der Umsatz verschiebt sich immer mehr in Richtung Marktplätze – bezogen auf den europäischen und amerikanischen Markt betrifft das im Wesentlichen Amazon und eBay. Betrachtet man nur den deutschen Markt, so kommt man als Onlinehändler an Amazon praktisch nicht mehr vorbei. Weit über 100 Millionen Produkte werden hier von circa 90.000 Händlern parallel zum Verkauf angeboten, welche sich wiederum in mehr als 30.000 Kategorien und Unterkategorien aufgliedern.

Das Sortiment auf Amazon umfasst mittlerweile beinahe jedes nur denkbare, physische Produkt – vom kleinen Radiergummi, über Nahrungsergänzungsmittel, die neuesten Mode- und Fashionartikel, Elektronik bis hin zu Waren des täglichen Bedarfs. Gepaart mit dem Prime-Service, der 1-Click-Bestellung und kundenfreundlichen Rücknahmebedingungen bleibt aus Käufersicht kaum ein Wunsch offen. Mit der Brille eines Verkäufers betrachtet, bieten sich zwar ebenso große Chancen und Möglichkeiten, aber auch Risiken, denn Amazon ist für viele Händler Fluch und Segen zu gleich.

Seit knapp zwei Jahren ist um das Thema „Amazon-SEO“ ein wahrer Hype in Deutschland entstanden. Die Tatsache, dass man seine Produkte auf Amazon ebenso einfach optimieren kann wie seine Website für die Google-Suchmaschine, bietet für findige Händler und clevere Optimierer ganz neue Möglichkeiten der Skalierung. Auf Google wie auf Amazon gilt der gleich Grundsatz: wer in den Suchergebnissen weit oben steht, bekommt den Traffic und steigert seine Umsätze. Letzteres gilt insbesondere für den Marktplatz, denn eine Studie aus 2016 hat gerade erst belegt: 55% der Nutzer starten ihre Produktrecherche nicht mehr auf Google, sondern direkt auf Amazon.

Während man als Onlinehändler mit seinem eigenen Webshop aufwendig und teilweise sehr kostspielig für genügend Traffic sorgen muss, bieten sich mit Amazon ganz andere, neue Möglichkeiten. Doch auch Risiken und Hürden gilt es auf dem Marktplatz zu meistern, denn viele Händler scheitern nicht selten an der Skalierung. Steigen die Sales, steigen auch die Herausforderungen. Gerade dann, wenn man seine Produkte aus Fernost anliefern lässt, gilt es viele Stolpersteine und Probleme bei der Einfuhr zu meistern.

merchantday 2017 – die E-Commerce-Konferenz für Amazon-Seller

Wie genau man die Hürden aus Händlersicht am besten nimmt und Probleme von Anfang an vermeidet, ist das zentrale Thema auf der Amazon-Konferenz merchantday in Hannover. Unser Senior Consultant Ronny Marx, Initiator und Moderater des Events, hat im Rahmen des 7P-Projekts „intomarkets“ zusammen mit einer Partneragentur in Hannover eine Fachkonferenz ins Leben gerufen, auf der sich dieses Jahr alles rund um das Thema „Verkaufen auf Amazon“ dreht. Ronny ist seit vielen Jahren im Bereich E-Commerce engagiert und in der Amazon-Szene gut vernetzt.

Top-Speaker der Branche berichten über Insides aus ihrem Leben als Onlinehändler und geben praktische Tipps, wie man sein Business auf Amazon in erfolgreiche Bahnen führt. Eines der zentralen Themen auf dem merchantday wird der Bereich „Import von Waren aus China“ sein. Eine erfahrene Rechtsanwältin erklärt dabei, wie man mit Markenrechtsverstößen in diesem speziellen Fall umgehen muss. Ein anderer Speaker, selbst seit vielen Jahren erfolgreicher Onlinehändler und Importeur von chinesischen Waren, hält einen spannenden Vortrag, worauf man beim Import aus Fernost achten muss.

Ein weiteres wichtiges Thema der Konferenz wird der Bereich „Brand-Building“ sein, denn nur etablierte Marken haben auf lange Sicht eine realistische Chance, sich auf dem Marktplatz zu etablieren. Hier sind gleich zwei Speaker zu dem Thema unterwegs und erklären, wie man eine Marke mithilfe von Amazon aufbaut und Social-Media-Fans zu zahlen Kunden konvertiert.
Wo es um Amazon-SEO geht, darf auch der Suchalgorithmus A9 nicht fehlen, um den sich viele Mythen und Märchen ranken. Einer der Top-Experten auf dem Gebiet wird genau erklären, was auf Amazon wirklich funktioniert, wie man die richtige Keywords für sein Produkt findet und mit welchen Tricks man schneller zu besseren Suchergebnisplatzierungen gelangt. Ein weiterer interessanter Vortrag geht anschließend auch auf die bezahlten Werbekampagnen ein, mit denen man ähnlich wie mit Google-Adwords, schnell und effektiv für eine Menge Traffic und Umsatz sorgen kann.

Sieben tolle Vorträge und ein cooles Networking-Event mit anschließender Aftershow-Party erwarten die circa 300 Teilnehmer am 09.06.2017 im Wiennecke Congress-Zentrum in Hannover. Im konkreten Themenumfeld „Amazon“ ist das von 7P initiierte Event eines der wenigen Veranstaltungen in Deutschland, die es derzeit für Onlinehändler gibt. Wir freuen uns auf spannende Vorträge und einen tollen Fachkongress in Hannover.

Container-Deployment auf AWS

Eines der fantastischen Phänomene, welche die zunehmend Cloud-zentrierte IT-Welt in jüngerer Zeit maßgeblich beeinflusst, sind zweifelsohne die Amazon Web Services (AWS). Natürlich beschäftigen auch wir bei 7P uns entsprechend eifrig mit der Thematik und unseren Kunden bleibt die Popularität der AWS nicht verborgen. So ist es wenig verwunderlich, dass der Begriff und die Möglichkeit eines Einsatzes in der Amazon Cloud bei praktisch jedem neuen Projekt fällt bzw. diskutiert wird. Höchste Zeit uns der Frage auch hier im Blog zu widmen.
Als erster Artikel zum Thema AWS auf diesem Blog, richtet sich dieser eher an Leser, die wenig bis keine Vorerfahrung haben. Weiterlesen

Viele, schnelle Daten: Data Lakes und Lambda-Architektur

In Zeiten allgemeiner Vernetzung und dem Wunsch, die anfallenden Daten in vielfältiger Art und Weise nutzen zu können, besteht die Herausforderung, die Daten in einer modernen Umgebung zu sammeln und wieder bereitzustellen. Wie? Möglichst in einer flexiblen und skalierbaren Umgebung, denn die Anforderungen steigen in der Regel mit der Datenmenge. Und hier gilt: Sie kann sehr schnell wachsen und im Petabyte Bereich liegen. Daten haben dabei alle möglichen Formate und auch die zeitlichen Anforderungen nach Speicherung und dem Bereitstellen der Daten rangiert von klassischer Batchverarbeitung bis hin zu Echtzeitszenarien. Technisch werden solche Anforderungen oftmals mit Hadoop-basierten Data Lakes und einer darin integrierten Lambda-Architektur gelöst.

Schnelle und langsame Daten: Lambda-Architektur

Eine Lambda-Architektur ist eine Architektur zur Massenverarbeitung von Daten, deren Kern meist eine Datenhaltung in einem organisiertem Data Lake ist. Sie ist in der Lage, eine Echtzeitverarbeitung zu ermöglichen und bringt Durchsatz und Latenz der Daten in ein sinnvolles, den jeweiligen Anwendungsfällen angepasstes Verhältnis. Aufgebaut wird auf folgenden Ideen:

  • Daten werden fortgeschrieben
  • Veränderungen werden zu neuen Datensätzen. Diese haben zum Zeitpunkt der Veränderung Gültigkeit, die alten Daten verbleiben jedoch im Data Lake, was eine Historie über die Daten ermöglicht
  • Informationen ergeben sich aus den Aggregationen über die Daten im Data Lake
  • Es gibt eine Zugriffsschicht, die eine konsolidierte Sicht auf die Daten ermöglicht

Um zum Ziel zu kommen, wird technisch ein sogenannter Batch Layer für die Daten geringerer Geschwindigkeit und ein Speed Layer für die Daten höherer Geschwindigkeit aufgebaut. Bei letzterem führt in der Regel eine Kombination aus Messaging und Streaming in Verbindung mit einer schnellen NoSQL Datenbank zum Ziel. Typische Komponenten aus dem Hadoop Ökosystem sind hierbei Apache Storm, Kafka und Spark Streaming.

Eine Zugriffschicht dient dazu, die Daten in einer sinnvollen Art und Weise zusammenzuführen, gemeinsam auswertbar zu machen und den Konsumenten zur Verfügung zu stellen. Hier wird oftmals auch ein Zugriff über SQL ermöglicht, was wiederum den Einsatz von Hive und weiterer geeigneter SQL-on-Hadoop Varianten voraussetzt. Es ist auch die Stelle, an der ein geeignetes Governance Konzept zum Tragen kommen muss, was in natürlicher Weise zum Begriff des Data Lakes überleitet.

Organisation von Daten: Data Lake

Data Lakes sind eine moderne, einfach zu betreibende, hoch skalierbare und flexible Systeme für die Speicherung, Verarbeitung und Bereitstellung aller Arten von Daten. Sie bedienen in der Regel eine weite Bandbreite an analytischen Anwendungsfällen. Kernaufgabe des Data Lakes ist hierbei, die Daten aufzunehmen, sinnvoll abzulegen und wieder in einer geordneten Art und Weise zur Verfügung zu stellen. Da Hadoop-basierte Systeme (fast) linear und horizontal skalieren, kommen in der Regel auch Technologien aus dem Hadoop Umfeld ins Spiel,  da sie flexible und einfach skalierbare Umgebungen ermöglichen können.

Bei dem Aufbau von Data Lakes ist es besonders wichtig, auf eine sinnvolle und einfach gehaltene Organisation zu achten. Die Daten sollen ja „im See“ nicht untertauchen und verloren gehen. Ein organisierter Data Lake, auch Data Reservoir genannt, kann das gewährleisten. Hier werden typischerweise klare Prozesse und Regeln unter dem  Stichwort Sicherheit und Governance geschaffen. Genauso dient ein logisches Schichten- und Speicherkonzept, welches die Schichten der Lambda-Architektur reflektiert, dem Data Lake zu dem gewünschten Grad an Organisation und Transparenz.

Das Konzept eines Data Lakes überschneidet sich hier natürlich mit der Idee einer Lambda-Architektur. Im Grunde beleuchten beide ja auch nur verschiedene Aspekte einer Sache: Der Data Lake betrachtet das Ganze aus organisatorischer Sicht, die Lambda-Architektur aus der Sicht der unterschiedlichen Geschwindigkeitsanforderungen an die Daten.

Fazit

Wenn ich nun als Unternehmen die Anforderung habe, alle Daten, die in den Vertriebsprozessen meines Unternehmens anfallen, insbesondere auch die Interaktionen mit meinen Kunden über alle Kanäle hinweg zu sammeln und zu verarbeiten, bietet sich eine Umsetzung mit Hilfe von Data Lakes und einer Lambda-Architektur wie oben beschrieben förmlich an. Das gilt auch für die Echtzeitverarbeitung, die für Recommendation Engines besonders wichtig ist.

Der Aufbau von flexiblen und hoch skalierbaren Systemen, die in Lage sind, Daten in allen gewünschten Geschwindigkeiten aufzunehmen und bereitzustellen ist eben mit Lambda-Architekturen, die einen organisierten Data Lake zugrunde liegen haben, sinnvoll zu bewerkstelligen und wird in der Regel auch so umgesetzt. Data Lakes bedienen dabei den organisatorischen Aspekt einer sinnvollen Speicherung und Bereitstellung aller Arten von Daten, die Lambda Architektur ermöglicht es, „langsame“ Daten (Batch) und Echtzeitdaten zu verarbeiten und letztlich in der gewünschte Geschwindigkeit zur Verfügung zu stellen. Die Kombination beider Konzepte führt hierbei zum Erfolg.

SEO Day 2016

Wenn es um das Thema Suchmaschinenoptimierung und Conversion-Steigerung geht, dann ist seit 6 Jahren ein Event eine Pflichtveranstaltung: der SEO-Day in Köln. Auch dieses Jahren standen über 40 Experten auf der Bühne und berichteten über neue Suchtrends, Best Practices in Sachen SEO und interessante Use Cases, wie man seine Website für Google & Co. verbessern kann. Einer der Top-Speaker auf dem SEO-Day 2016 war unser Senior Consultant Ronny Marx, der abseits der vielen Themen aus dem Google-Kosmos mit einem etwas anderen Vortrag auftrumpfte. Im Rahmen unser neuen Marke „intomarkets“ etabliert Ronny mit seinen Kollegen in Hamburg einen Agentur-Services für Onlinehändler, die Amazon als Vertriebskanal (besser) nutzen wollen und eine umfassende Beratung zur Sichtbarkeits- und Conversion-Steigerung benötigen.

Amazon ist das nächste Google

Wer sich jetzt vielleicht fragt, was Amazon mit Suchmaschinenoptimierung zu tun hat, dem sei entgegnet, dass Amazon Google in Sachen Produktsuche bereits den Rang abgelaufen hat. Neueste Untersuchungen zeigen, dass 55% der Menschen mit einer konkreten Produktsuche direkt auf Amazon und nicht mehr auf Google mit der Recherche starten. Dieser Paradigmen-Wechsel findet schon seit 1-2 Jahren statt, aber eine ganze Branche scheint diesen Wandeln noch nicht oder kaum wahrzunehmen. Zwar ist es immer noch möglich, als Onlinehändler sich im klassischen Google-Bereich zu behaupten und seine Produkte erfolgreich zu verkaufen, aber die Frage ist eben, wie lange noch. Suchen Menschen transaktional, d.h. eine Transaktion (bestellen, kaufen, buchen usw.) als zentrale Suchintention, dann wird immer häufiger eben der Marktplatz Amazon besucht. Schließlich bieten alleine auf der deutschen Plattform zehntausende Händler über 100 Millionen Artikel zum Verkauf an und das alles auf einer Plattform mit extrem schnellen Lieferzeiten und einen Kunden-Services in Sachen Retour- Umtauschkulanz, der seines gleichen sucht. Kein Wunder also, dass Käufer gern den Weg des geringsten Widerstandes gehen und ihre Produktsuche auf Amazon effektiver und zeitsparender ausführen können.

Amazon SEO als Strategie für Onlinehändler

 

Noch beim letzten SEO-Day 2015 gab es nicht einen Vortrag zum Thema Amazon SEO. Ronny war allerdings damals bereits der erste Aussteller, der sich mit dieser Materie professionell befasst hat (u.a. mit seinem Buch „Amazon SEO Code“) und das Thema in Deutschland mit salonfähig gemacht hat. Ein Jahr später gab es bereits drei Verträge zur Thematik Amazon Optimierung und Best Practices. Einer der drei Speaker in diesem Umfeld war auch Ronny, der das Publikum nicht nur mit interessanten Zahlen und Fakten zu einem der weltweit erfolgreichsten E-Commerce-Player unterhielt. Viel mehr zeigt Ronny den Zuhörern, wie Amazon auch aus Kundensicht funktioniert und wie Händler sich am besten in Zukunft aufstellen sollten. Ein zentrales Thema war dabei die Bildoptimierung, denn die meisten Onlinehändler (auch auf Amazon) unterschätzen massiv, wie sich gute, bzw. schlechte Bilder auf die Verkaufszahlen auswirken. Wie man mit negativen Kundenbewertungen richtig umgeht und was man als Seller auf keinen Fall machen sollte, erklärte Ronny in ausgewählten Praxisbeispielen und sorgte damit für erstaunte als auch amüsierte Gesichter. Abschließend erklärte Ronny eine clevere Taktik, mit der man mittels Facebook und Instagram externen Traffic auf seine Amazon-Angebote leiten und damit den Absatz massiv steigern kann. Ein tosender Beifall und ein paar hundert begeisterte Zuhörer bescheinigten, dass das Thema Amazon SEO nicht nur unterhaltsam, sondern auch ein Wichtiges für die Zukunft ist.

Was hat Amazon mit SEVEN PRINCIPLES zu tun?

Schaut man sich nun das Leistungsportfolio von SEVEN PRINCIPLES an, so kann man sich vielleicht auf die Frage stellen, wie dort Amazon SEO hineinpasst. Ein kurzer Blick auf unseren Slogan „Enabling Your Digital Business“ macht deutlich, dass hinsichtlich E-Commerce Amazon durchaus ein entscheidender Faktor und zum Teil auch Game-Changer sein kann. Ronny ist bereits seit vielen Jahren im klassischen SEO-Bereich tätig und hier auch aktuell in Kundenprojekten von 7P unterwegs. Diese Praxiserfahrung und das Know-How in Sachen Amazon und E-Commerce bündeln wir in unserem neuen Projekt „intomarkets“, um ein neu entstehendes Geschäftsfeld von Anfang an mitzuprägen. Zudem gibt es viele große E-Commerce-Player, die Amazon nur als einen von vielen Vertriebskanälen nutzen und noch immer erfolgreich auf einen eigenen Webshop setzen. Über intomarkets ist der sprichwörtliche „Fuß in der Tür“ in Sachen E-Commerce wesentlich besser zu erreichen, da 7P auf diese Weise wesentlich „dichter“ am Kunden und potentiellen Partnern in diesem Umfeld ist.

ronny-marx-speaker-seo-day-2016

Erschließung ökonomischer Potenziale durch Einführung eines CMS

Die Anzahl der mit Unternehmensinhalten zu bespielenden Kanäle (Website, Onlineshop, soziale Kanäle, Newsletter), die Heterogenität der Rezipienten sowie die Prämissen, die an Inhalte gestellt werden (aktuell, relevant, (SEO)-optimiert, etc.), stellen hohe Anforderungen an den Content-Prozess in Unternehmen dar. Dieser Prozess der Konsolidierung, Auswahl, Bearbeitung und Präsentation von Content ist jedoch oft gekennzeichnet durch unklare Verantwortlichkeiten, lange Abstimmungsrunden und undefinierte Prozesse, wodurch viele zeitliche und personelle Ressourcen gebunden werden mit entsprechenden ökonomischen Folgen für die Gesamtorganisation. Weiterlesen

Industrie 4.0: eine Chance für den Mittelstand

Das Schlagwort Industrie 4.0 hat durch die Cebit 2016 erneut an Dynamik gewonnen und ist momentan das Thema in den Medien, auf Veranstaltungen und bei Kongressen, an dem es kein Vorbeikommen gibt. Mit der Vision einer völlig neuen Art wirtschaftlicher Produktion, die durch eine durchgängige Digitalisierung und eine stärkere innerbetriebliche sowie überbetriebliche Vernetzung geprägt ist, setzen sich immer mehr Unternehmen auseinander. Weiterlesen

Content-Targeting: Durch Big Data zu maximaler Customer Experience

„Content is King“, diese Prämisse kennen wir bereits aus dem SEO-Kontext. Jenseits von Textlänge, -qualität und -struktur, um nur einige Faktoren zu nennen, die im Rahmen der Onpage-Suchmaschinen-Optimierung relevant sind, kommt den Inhalten Ihrer Webpräsenz noch eine weitere, mindestens genauso wichtige Rolle zu, nämlich die Erzeugung digitaler Erlebnisse durch Relevanz und Personalisierung. Weiterlesen

Omnichannel-Personalisierung: So gelingt die effektive Kundenkommunikation

Der Prozess der Digitalisierung hat dazu geführt, dass sich die Konsumenten auf unterschiedlichen Endgeräten zu jeder Zeit und fast flächendeckend Informationen beschaffen und sich über Produkte und Dienstleistungen informieren können. Was sich vor Jahren noch auf den heimischen Desktop-Computer beschränkte, hat sich in rasanter Geschwindigkeit auf alle Lebensbereiche ausgeweitet. Weiterlesen

Warum IT-Projekte ohne Changemanagement scheitern

Wikipedia definiert „digitale Transformation“ als „langfristige Veränderung des Fundaments jedes Unternehmens in seiner Strategie, Struktur, Kultur und seinen Prozessen durch die Möglichkeiten und Potenziale digitaler Medien und des Internets.“ Doch was passiert, wenn man als Projektleiter genau solch ein Veränderungsprojekt in einem Unternehmen zu betreuen hat? Vor allem: Was passiert mit den Menschen? Der folgende Artikel soll das etwas näher beleuchten. Weiterlesen