In diesem Kapitel werden die Ergebnisse der Arbeit zusammengefasst. Zudem werden die Limitationen der Arbeit diskutiert und ein Ausblick bezüglich der Weiterführung des Themas gegeben.

Zusammenfassung

Die erste Zielsetzung dieser Arbeit ist die Beantwortung der Frage, wie ein Einzelhänd-ler, der in einem oligopolistischen Wettbewerb agiert, seine dynamische Preissetzung gestalten sollte. Aus der Literaturrecherche zu dieser Frage gingen zwei Forschungsfel-der hervor. Beim ersten Feld handelt es sich um den Ansatz des Preisimages, der ins-besondere in betriebswirtschaftlichen Standardwerken zum Preismanagement diskutiert wird. Beim zweiten Forschungsfeld handelt es sich um das dynamische Preismanage-ment für den Einzelhandel, das sich aus der Disziplin der Operations Research entwickelt hat, die die Entwicklung und den Einsatz von mathematischen Modellen zur Entschei-dungsunterstützung thematisiert.

Bei der Untersuchung der Modelle des zweiten Forschungsfelds wurde herausgearbeitet, dass die oligopolistische Preissetzungsproblematik durch mathematisch komplexe Nach-fragefunktionen gelöst wird, was dazu führt, dass die konkreten Modelle nicht mit dem mathematischen Vorwissen eines Wirtschaftsinformatikers verstanden werden konnten. Das Forschungsfeld wurde dennoch in dieser Arbeit vorgestellt, weil die dort intensiv geführte Diskussion bezüglich der Anwendbarkeit und der Prämissen von Preissetzungs-modellen genutzt werden konnte, um die Anwendbarkeit des Preisimage-Ansatzes für den Einzelhandel zu reflektieren. Es wurde u. a. herausgearbeitet, dass sich die Modelle der Operations Research anbieten, wenn die Kunden einzelne, relativ isolierte Kaufent-scheidungen treffen, während der Preisimage-Ansatz sich in Branchen anbietet, in de-nen regelmäßige Einkäufe mit vielen Artikeln pro Einkauf stattfinden, was insbesondere im Lebensmitteleinzelhandel und SB-Warenhäusern der Fall ist.

Das Preisimage-Feld postuliert, dass die Kunden bei der Einkaufsstättenwahl auf ein sogenanntes Preisimage zurückgreifen, das als Entscheidungsheuristik fungiert, da es den Kunden nicht möglich ist, alle Preise des Sortiments zwischen verschiedenen Ein-kaufsstätten zu vergleichen. Es wird untersucht, wie die Kunden die einzelnen Artikel-preisurteile im Rahmen eines Einkaufs zu einem Gesamturteil (Preisimage) über das Geschäft aggregieren. Die Dissertation von Müller (2003) zeichnet sich dadurch aus, dass dort die verschiedenen Hypothesen des Preisimage-Feldes aufgegriffen und an-schließend durch eine empirische Untersuchung überprüft werden. Des Weiteren zeich-net sie sich dadurch aus, dass, im Gegensatz zu vielen anderen Literaturquellen, Hand-lungsempfehlungen abgeleitet werden, die konkret angewendet werden können. Müller belegt durch ihre empirische Untersuchung mit multiplen Regressionsanalysen, dass nur bestimmte Schlüsselartikel aller erworbenen Artikel in das Gesamturteil eines Einkaufs einfließen und die Schlüsselartikel wiederum individuellen Gewichtungen aufweisen. Aus der empirischen Untersuchung leitet sie ab, welche Artikel Schlüsselartikel sind und wel-che individuellen Gewichtungen sie aufweisen.

Müller argumentiert, dass nur für Schlüsselartikel die Preissetzung in Abhängigkeit von Konkurrenzpreisen gestaltet werden muss, während für die anderen Artikel ein mono-polistischer Spielraum besteht. Auf Basis der berechneten Gewichtungen argumentiert Müller, dass für die Warengruppe „Obst und Gemüse“ sowie für die Markenartikel der Warengruppen „Grundnahrungsmittel“ und „Molkereiprodukte“ des Normalsortiments die Konkurrenzpreise (Normalpreise) dynamisch unterboten werden sollten. Für die Wa-rengruppe „Frische-Theken“ und die Markenartikel der Warengruppe „Alkoholfreien Ge-tränke“ des Normalsortiments sollten die Normalpreise der Wettbewerber gehalten wer-den. Nach Müller sollte ein Dauerniedrigpreisprogramm für die Schlüsselartikel des Nor-malsortiment eingeführt werden und die Anzahl von Sonderangeboten reduziert werden. Diese Strategie beantwortet die Frage, die im Rahmen der ersten Zielsetzung gestellt wurde.

In der Evaluation wurde kritisch reflektiert, dass die empirischen Daten zur Berechnung der individuellen Gewichtungen jeweils passend zusammengefasst werden mussten und teilweise fehlende Daten mit Mittelwerten ergänzt werden mussten. Allerdings kann ar-gumentiert werden, dass diese empirischen Kritikpunkte das Resultat von begründeten Entscheidungen sind, die insbesondere der Machbarkeit der Untersuchung Rechnung getragen haben. Der empirischen Kritik kann zudem gegenübergestellt werden, dass die aus den berechneten Gewichtungen hervorgehenden Handlungsempfehlungen kon-kret anwendbar sind. Die Erläuterungen von Diller (2008), Schröder (2012) sowie Si-mon und Fassnacht (2009) sind durch ihren generischen Charakter zwar wenig kritisier-bar, können aber gleichzeitig nur begrenzt angewendet werden.

Bezüglich der Handlungsempfehlungen kann ferner kritisiert werden, dass eine Unter-bietung der Wettbewerberpreise nicht immer möglich sein wird, da die Konkurrenten entsprechend reagieren könnten, und sich eine Unterbietungsspirale ergibt. Bezüglich der Umsetzung eines Dauerniedrigpreisprogramm für die Schlüsselartikel und der Re-duktion von Sonderangeboten wurde reflektiert, dass einige Autoren postulieren, dass Sonderangebote zur Erreichung von speziellen Zielen sinnvoll sein können. Andere Au-toren argumentieren wiederum dagegen.
Die zweite Zielsetzung dieser Arbeit ist die Beantwortung der Frage, wie der Prozess automatisiert werden kann, die dynamischen Preise der Wettbewerber in Echtzeit zu beschaffen und in einer Datenbank zu speichern, sodass es möglich wird, die eigenen

Preise in Abhängigkeit von diesen Preisdaten dynamisch zu gestalten. Nach Rücksprache mit dem Betreuer sollte sich in der technischen Implementierung mit der Branche des Lebensmitteleinzelhandels beschäftigt werden. Da als Preissetzungsstrategie ein Dau-erniedrigpreisprogramm für die Schlüsselartikel des Normalsortiment durchgeführt wer-den soll, wurden als zu beschaffende Daten pro Schlüsselartikel der Artikelname, der Normalpreis des Artikels, das Datum der Information (da sich der Normalpreis des Wett-bewerbers ändern kann) sowie der entsprechende Wettbewerber identifiziert. Des Wei-teren wird die Größeneinheit des Artikels benötigt, da verschiedene Größen eines Mar-kenartikels existieren können, und der Artikel entsprechend zugeordnet werden muss.

Es wurde herausgearbeitet, dass diese benötigten Daten von den Webseiten der Wett-bewerber beschafft werden können, bei denen die Normal- und Sonderangebotspreise im Rahmen von Preisaktionen zugänglich sind. Ferner wurde herausgearbeitet, dass der Prozess der Informationsextraktion von Webseiten durch die Technologie des Web-Scrapings automatisiert werden kann. Der implementierte Prototyp soll als Framework für die Konkurrenzpreisbeschaffung aller Wettbewerber genutzt werden können. Um zu zeigen, dass diese Idee der automatisierten Konkurrenzpreisbeschaffung technisch funktioniert, sollten ferner die Daten eines exemplarischen Wettbewerbers durch einen Web-Scraper beschafft werden. Weil das Framework um viele Web-Scraper erweitert werden soll, muss die für den Prototyp verwendete Plattform eine hohe Performanz und eine geeignete Threading-Architektur aufweisen.

Es wurde herausgearbeitet, dass sich SAP HANA aufgrund ihrer hohen Performanz, die durch die In-Memory-Technologie und die spaltenbasierte Speicherung erreicht wird, als Datenbank für den Prototypen eignet. Es wurde diskutiert, dass der in SAP HANA inte-grierte Anwendungsserver allerdings nicht für die Umsetzung des Web-Scrapings ge-nutzt werden kann, weil nur begrenzte Sprachelemente von JavaScript vorhanden sind und benötigte externe Bibliotheken nicht importiert werden können. Die Anwendungs-logik des Prototyps musste deswegen auf einem (aus Sicht der HANA) externen Anwen-dungsserver implementiert werden, und die HANA lediglich als Datenbank genutzt wer-den, an die allerdings datenintensive Datenbanktransaktionen delegiert werden können.

Es wurde herausgearbeitet, dass die Plattform Node.js, die die Entwicklung von server-seitigen Webapplikationen mit JavaScript ermöglicht, insbesondere bezüglich der Per-formanz und der Threading-Architektur optimiert ist, und sich besonders für die Imple-mentierung des Web-Scraping-Frameworks eignet. Node.js erreicht die hohe Perfor-manz dadurch, dass die diesbezüglich optimierte JavaScript-Engine-V8 von Google als Compiler genutzt wird. Des Weiteren erfüllt Node.js insbesondere die Anforderung der geeigneten Threading-Architektur. Node.js verfügt über eine Single-Thread-Architektur,bei der ein Haupt-Thread existiert, der aufwändige und zeitintensiven Aufgaben an ex-terne Ressource delegiert. Bis die Antwort der externen Ressource vorliegt, bearbeitet der Haupt-Thread die anderen Anfragen und delegiert wiederum deren Aufgaben. Die anderen Ressourcen benachrichtigen den Haupt-Thread über die Abschließung einer Aufgabe durch einen sogenannten Callback. Durch diese Architektur ist Node.js deutlich skalierbarer und performanter als klassische Webserver.

Nach der Selektion der Technologien wurden das um weitere Web-Scraper erweiterbare Framework und der exemplarische Web-Scraper implementiert und diese Implementie-rungen in der schriftlichen Ausarbeitung ausführlich erläutert, was die zweite Frage der Arbeit beantwortet. Der Prozess ist so automatisiert, dass durch Knopfdruck die Preis-daten des exemplarischen Wettbewerbers (Aldi-Nord.de) beschafft werden. Durch die ausführliche Erläuterung der Umsetzung des Web-Scrapers wird zudem die Grundlage gelegt, um weitere Web-Scraper zu implementieren. Des Weiteren wurde eine View im-plementiert, mit der die beschafften Daten übersichtlich eingesehen werden können. Ferner wurden Prozesse implementiert, die das Management und Testing der Daten-banktabelle und ihrer Datensätze ermöglichen.

Die dritte Zielsetzung dieser Arbeit ist die Implementierung des Preissetzungsansatzes, der im Rahmen der theoretischen Ausarbeitung ausgewählt wurde. Es sollte folglich ein Prozess implementiert werden, der die empfohlenen Normalpreise für die Eckartikel auf Basis der beschafften Konkurrenzpreise automatisiert berechnet. Die empfohlenen Nor-malpreise können anschließend in einem Niedrigpreisprogramm verwendet werden.

Es wurde diskutiert, dass das Vorgehen sinnvoll erscheint, die Preisempfehlungen für die Eckartikel außerhalb der Geschäftszeiten zu berechnen und sie als Spaltenwert in einer Datenbanktabelle zu speichern, sodass sie zu den Geschäftszeiten als Wert direkt abgerufen werden können. Des Weiteren musste eine Lösung implementiert werden, die die beschafften Preisdaten der verschiedenen Wettbewerber so transformiert bzw. bereinigt, dass die Datensätze, die einen bestimmten Schlüsselartikel referenzieren, einheitlich und performant abgerufen werden können. Anschließend wurden die Pro-zesse implementiert und erläutert, der die empfohlenen Normalpreise für einerseits die Unterbietung und andererseits das Halten der Wettbewerbspreise automatisiert berech-nen. Dabei wird auf die bereinigten, einheitlich abrufbaren Konkurrenzdaten zurückge-griffen. Die empfohlenen Normalpreise für die einzelnen Eckartikel werden in der HANA-Cloud-Datenbank gespeichert. Die HANA-Cloud-Datenbank kann folglich von anderen Softwaresystemen als Schnittstelle verwendet werden, um die empfohlenen Normal-preise der Eckartikel auszulesen.

Limitationen

Eine Limitation der Konkurrenzpreisbeschaffung durch die Webseiten der Wettbewerber ist, dass die Preisdaten von Schlüsselartikeln, die dort nicht beworben werden, nicht beschafft werden können. Allerdings kann vermutet werden, dass insbesondere Schlüs-selartikel von den Wettbewerbern als Preisaktionen auf den Webseiten profiliert werden. Die durch den exemplarischen Web-Scraper beschafften Daten stützen diese Vermu-tung, weil viele der Preisaktionen der wichtigsten Schlüsselartikel-Warengruppe der „Grundnahrungsmittel“ zugeordnet werden können. Zudem kann argumentiert werden, dass die Beschaffung der Preisdaten vieler Wettbewerber über einen langen Zeitraum wahrscheinlich zu einem zweckmäßigen Gesamtfundus an Schlüsselartikelpreisen führt.

Eine Limitation der Web-Scraping-Technologie ist, dass die Änderung der Struktur der Webseite bzw. des HTML-Dokuments, auf die sich ein spezifischer Web-Scraper bezieht, dazu führt, dass der Web-Scraper ebenfalls geändert werden muss. Falls ein Wettbe-werber seine aktuelle Webseite durch eine komplett neue Webseite ersetzt, wird ein implementierter Web-Scraper zudem komplett unbrauchbar. Es kann allerdings argu-mentiert werden, dass der Nutzen des Web-Scrapings, die aktuellen Konkurrenzdaten in Echtzeit beschaffen zu können, diese Limitation des Web-Scrapings aufwiegt. Ferner kann argumentiert werden, dass die Anpassung oder neue Implementierung eines ein-zelnen Web-Scrapers für einen darauf spezialisierten Programmierer keinen sehr hohen Arbeitsaufwand darstellt. Weil die Erläuterungen des exemplarischen Web-Scrapers in dieser Arbeit explizit so geführt wurden, dass im Rahmen einer Erweiterung der Arbeit weitere Web-Scraper implementiert werden können, wird dieser Problematik ebenfalls entgegengewirkt.

Neben der Problematik der sich möglicherweise ändernden Strukturierung des HTML-Dokuments kann das Problem auftreten, dass das Format der Strings, die die relevanten Daten beschreiben, sich über die Zeit ändert oder in einzelnen Fällen abweicht. In die-sem Fall müssen die regulären Ausdrücke angepasst werden, die im Rahmen des Web-Scrapers für die Bereinigung der Strings definiert wurden. Auch dieser Problematik kön-nen allerdings die im letzten Absatz genannten Argumente gegenübergestellt werden.

In dieser Arbeit wurde nicht die Frage beantwortet, ob bei Obst- und Gemüseartikeln die Preisangaben für verschiedene Gewichte wettbewerberübergreifend proportional verglichen werden, oder ob die Kunden nur die Preisangaben für das gleiche Gewicht vergleichen. Eine ausführliche Literaturrecherche zu dieser Fragestellung hätte zu einer Überschreitung des Umfangs dieser Arbeit geführt. Die empfohlenen Normalpreise wur-den deswegen als Daten so gespeichert, dass sie für beide Fälle genutzt werden können. Um ein Niedrigpreisprogramm in der Praxis umzusetzen, müsste diese Frage allerdings vorher beantwortet werden.

In den Handlungsempfehlungen von Müller wird herausgearbeitet, für welche Schlüs-selartikel eine Unterbietungsstrategie erfolgen soll. Es wird aber nicht herausgearbeitet, wie eine Unterbietung monetär umgesetzt werden soll. Es kann hier auf die verhaltens-theoretische Hypothese verwiesen werden, dass bestimmte Preisschwellen existieren (Kapitel 2.1.2.1), aber Diller merkt an, dass die Preisschwellen der individuellen Kunden nicht genau bestimmt werden können, und dieses Wissen somit begrenzt nutzbar ist. Eine ausführliche Literaturrecherche zu dieser Fragestellung hätte zu einer Überschrei-tung des Umfangs dieser Arbeit geführt. Im Prototyp wurde deswegen nur ein Platzhal-ter-Algorithmus implementiert, der den Unterbietungspreis 5 Cent unter den minimalen Konkurrenzpreis setzt. Um das Niedrigpreisprogramm in der Praxis anzuwenden, müsste ein konkreter Algorithmus gefunden werden, der für einen bestimmten Normal-preis X den Unterbietungspreis auf die nächst niedrigere Preisschwelle setzt.

Forschungsausblick

Aus der empirischen Untersuchung von Müller gingen bestimmte Artikelgewichtungen für bestimmte Warengruppen hervor. Auf Basis dieser Gewichtungen wurde abgeleitet, welche Artikel Schlüsselartikel sind, und für welche Schlüsselartikel wiederum die Stra-tegie des Unterbietens oder Haltens des Wettbewerbspreises verfolgt werden sollte. Müller geht bei ihrer Untersuchung deduktiv vor und überprüft die Hypothesen anhand der empirischen Daten eines einzelnen SB-Warenhauses. Da Müllers Untersuchung im Jahr 2003 stattfand und die Daten eines einzelnen Unternehmens verwendet wurden, erscheint es sinnvoll, die Artikelgewichtungen durch eine weitere und aktuellere Unter-suchung erneut zu überprüfen. Zusätzlich zu der allgemeinen Überprüfung könnte im Rahmen der Untersuchung reflektiert werden, ob sich das Verhalten und die Integrati-onsheuristik der Kunden bezüglich des Preisimages verändert hat. Zudem wurde in Mül-lers Untersuchung davon ausgegangen, dass keine Markenartikel im Obst- und Gemü-sesortiment existieren. Die neue Untersuchung könnte die Gewichtungen der Marken-artikel gegenüber den Nicht-Markenartikeln in dieser Warengruppe differenzieren.

Um den in dieser Arbeit implementierten Prototypen in der Praxis anwenden zu können, müsste das implementierte Framework zunächst um die Web-Scraper der anderen Wett-bewerber-Webseiten erweitert werden. Anschließend könnten die Transformationsre-geln für die beschafften Daten implementiert werden, und die empfohlenen Normal-preise für die Schlüsselartikel über alle Wettbewerber hinweg berechnet werden. In Hin-blick auf den erweiterten Prototyp erscheint es sinnvoll, in einer Untersuchung zu über-prüfen, ob die wettbewerbsbezogene Preissetzung der Schlüsselartikel in Kombination mit der Preissetzung der Artikel mit einem monopolistischen Spielraum insgesamt zu einer betriebswirtschaftlich sinnvollen Preisstrategie führt. So könnte beispielsweise eine Anpassung der Strategie nötig sein, wenn sich herausstellt, dass das Unterbieten der Wettbewerbspreise für die kritischen Schlüsselartikel insgesamt zu teuer ist. Als Basis für die Anpassung der Strategie könnten die empirisch ermittelten Artikelgewich-tungen verwendet werden.