Das Programm der Data Driven Business Berlin
Data Driven Business - Berlin - Tag 1 - Montag, 13. November 2017
- Understanding the audience to deliver optimal content
- Understanding often runs through logged behavioral data
- Can we leverage methods from polling to generate additional insights?
For media organizations an understanding of one's audience is key to delivering optimal content. The path to this understanding often runs through logged behavioral data, but can we leverage methods from the world of polling to generate additional insights?
- Value of conversational interface
- How to think differently if you have a conversational interface
- How to tailor devices for both screen-less interactions and interactions with screens
Conversational interfaces can hugely impact your Conversion Rate. Sharing stories from the likes of 1-800 flowers and her own MSFT research, Purna will show you in this keynote just how much value these interfaces can bring. However there are many different places to book travel, buy goods and services or get the information needed. User have the choice and the reality is that most skills and chat bots get lost in the crowd. So how do you stand out and get selected for use? What do we need to think of differently if we have a conversational interface? Messaging and speech both offer up constraints. Learn how you can use them to your best advantage and how you need to plan now to tailor devices for both screen-less interactions and interactions with screens.
- An introduction to artificial intelligence and what it means for marketing analysts
AI and machine learning are coming at us fast. You need to know the basics and the practical applications. Starting with a quick overview of AI and ML, you will understand the language and the implications, be able to speak cogently with your colleagues, and determine where to apply this innovative technology first. You will also get a firm grasp on how these new tools will change your job and what you can do to remain relevant in tomorrow’s marketing department.
Key Takeaways
How Machine Learning Works for Marketing
What Machine Learning Cannot do for Marketing
How to On-board AI and ML into Your Organization
- Deep Learning-Anwendungen für Predictive Analytics im Retail
- Anwendungen aus dem Bereich der Netzwerk- und Komplexitätstheorie
- Bedeutung für das Retail-Business
Der Handel ist ein komplexes System, in dem immerzu heterogene Daten generiert werden. Während viele Händler noch mit den Herausforderungen von Omni-Channel-Retail kämpfen, haben sich andere zu Technologieunternehmen gewandelt. Diese Vorreiter extrahieren nicht nur Erkenntnisse und generieren Prognosen aus ihren Daten, sondern sie verändern ihr operatives Geschäft disruptiv. Data Science und Predictive Analytics sind die wesentlichen Faktoren, die diese Transformation antreiben. Dabei kommt der Methode des Deep Learnings eine besondere Rolle zu. Der Vortrag zeigt ausgewählte Beispiele von Deep Learning-Anwendungen für Predictive Analytics im Retail. Neben Deep Learning lernen Sie auch Beispiele für Anwendungen aus dem Bereich der Netzwerk- und Komplexitätstheorie kennen und erfahren, wie diese Methode das Retail-Business nachhaltig verändern.
b.telligent ist eine dynamische Unternehmensberatung für Business Intelligence und agiert entlang der gesamten Datenwertschöpfungskette. In Zeiten der Digitalisierung aller Geschäftsmodelle wird in dieser Wertschöpfungskette gerade der Bereich Data Science für Unternehmen immer relevanter. Denn mit Hilfe von Predictive Analytics, Data Science & Co werden Potentiale sowie Chancen in den Daten erkannt und können durch die Identifizierung von Mustern zur positiven Entwicklung des Unternehmens beitragen.
Nach einer kurzen Vorstellung von b.telligent, werden verschiedene Projekte der letzten Jahre vorgestellt. Hierbei wird der Fokus auf Projekte mit hohem Data Science Anteil gelegt und wesentliche Ergebnisse sowie Erfahrungen geschildert. Somit klärt sich auch die Frage, wie der Begriff Data Science bei b.telligent mit Leben gefüllt wird und für Kunden zielgerichtet Mehrwert jenseits der Methodik schafft.
- Data from search, social media, call centers and CRM databases is often overlooked
- Learn how to use these underutilized sources to create content that converts
- Key steps to build scalable content plans that convert based on searcher interests
Many marketers overlook significant data from search, social media, call centers and CRM databases that can be leveraged to create content designed to more quickly capture qualified leads and generate sales. Using real examples from Fortune 100 companies he's worked with, Bill Hunt, co-author of the best selling book "Search Engine Marketing, Inc." will demonstrate how to tap into this data, mine the insights and develop the content plan that will take your programs to the next level.
- CRO Evolution der letzten Jahre am Beispiel Cosmos
- Modellierung neuer Kundenschnittstellen und Innovationen: datengetrieben, nutzerzentriert und agil
- Digitale Transformation der Geschäftsmodelle zwischen sich verändernden Nutzerbedürfnissen und Trends im Markt
Jahrelang war CRO geprägt von der Suche nach der perfekten Landingpage, immer komplexeren Testverfahren und zunehmender Automatisierung. Doch wenn man ehrlich ist, ist CRO zwar effizienter geworden, das Angebot für die Nutzer ist aber kein Stück attraktiver. Wie aber kann man Innovationsmethoden (bzw. den Human(User)-Centered-Design Ansatz) nutzen, um Services für den Kunden zu schaffen, die das eigene Angebot tatsächlich attraktiver (und eben nicht nur effizienter) machen? Und wie (mit welchen Methoden/Prozessen) kann man das in den Business-Alltag integrieren? In dieser Session gibt Juliane Richter einen kurzen Abriss der CRO Evolution der letzten Jahre am Beispiel Cosmos und dann verlassen wir die Schleife, in der man sich von Optimierung zu Optimierung hangelt und besprechen Ansätze, die nicht Rekordzahlen, sondern den Nutzer/Kunden in den Mittelpunkt stellen.
- Kombination von Online und Offline Daten
- Einsatz von Google Store Visits für Kampagnensteuerung und –optimierung
- Omnichannel-Strategie von OBI
Für klassische Handelsunternehmen stellt sich in Bezug auf ihre Online-Aktivitäten häufig die Frage, was leistet mein Online-Shop jenseits der reinen Online KPIs? Hilft das Online Angebot auch stationäre Nachfrage zu fördern? Wie lässt sich das Marketing Budget optimal allokieren, wenn der Online ROAS nicht das dominierende Ziel ist? Neue Analysemöglichkeiten eröffnen hier Chancen für Online Marketer ein besseres Omnichannel-Verständnis aufzubauen. Wie man diese Metriken bewerten sollte und welche Fallstricke in der Analyse bestehen, wird in diesem Vortrag erörtert.
- State-of-the-Art Methodik der Earned Media Value Berechnung von Aktivitäten im Social Web
- Content Marketing Strategie messbar machen
- Social Media Analytics & Controlling
Trotz des immanenten Hypes rund um Facebook und Co sind Budgets für Social Media Initiativen meist noch relativ klein (im Verhältnis zu TV). Der Grund: Social Media Manager versuchen oftmals Entscheider mit abstrakten Kennzahlen wie Fans, Follower oder Engagement Rate den Erfolg ihrer Content Marketing Aktivitäten nachzuweisen. Einen Entscheider interessiert jedoch am Ende nur eines: Geld. Entweder in Form von erzieltem Umsatz und Marge oder in Form von Effizienzgewinnen. Wie soll ein CMO businessrelevante Entscheidungen treffen können ohne harte Kennzahlen? Dieser Vortrag stellt die aktuelle State-of-the-Art Methodik der Earned Media Value Berechnung von Aktivitäten im Social Web vor und zeigt, wie es großen Marken gelingt, ihre Content Marketing Strategie endlich messbar zu machen. Mit allen Risiken und Nebenwirkungen.
- Common multivariate driver models rarely show impact on brand health measures or other outcome metrics
- For Marketing professionals it is crucial to know the impact of brand perception levers on brand measures for related marketing investments
- In this session an innovative and easy-to-use Excel simulator for modeling Visa's brand preference will be shown simplifying budget allocation decisions
Common multivariate driver models solve for relative impact of brand drivers, but rarely show impact on brand health measures or other outcome metrics. Educated decisions are expected from brand messaging related marketing investments. We present an innovative solution for modeling Visa’s brand preference based on individual-level survey data, comparing various prediction strategies and showcasing an easy-to-use Excel simulator. By taking current performance into account and modeling on an individual level we are able to show the precise impact of brand perception levers in an easy to use and comprehensive format. This shifts the predictive power of the driver model into the hands of key decision makers and stakeholders, thereby creating actionable insights for marketing teams.
- Predictive maintenance is a crucial factor to avoid unplanned machine shutdowns at Linde
- Common predictive maintenance approaches didn't deliver sufficient results
- In this session Linde's tailormade approach to predictive maintenance will be presented
Linde as industrial gas company is operating hundreds of large-scale industrial plants worldwide. Big critical components like rotating machines are equipped with dozens of sensors and deliver a continuous data stream. In total, hundred thousands of sensors generating gigabytes of sensor data every day.
The high reliability of these machines led to a low number of total shutdowns in the past. The variety of the failures, causing the shutdowns, provides an additional level of complexity. Thus, applying common predictive maintenance approaches like pattern recognition did not deliver the expected results.
This track will demonstrate how smart data science and operational expertise in combination, can be the key enabler to the overall goal: The prediction of necessary maintenance activities and the avoidance of unplanned shutdowns.
- Einblick in die Prognosemodelle für den Performance Display Kanal bei OTTO
- Fokus auf Gebotsindividualisierung
- Datenrückflüsse gewährleisten Verbesserung der Modelle
Erhalten Sie einen Blick in den analytischen Motorraum von Data Driven Display bei der OTTO GmbH. Erfahren Sie mit welchen Prognosemodellen OTTO den Performance Display Kanal datengetrieben für seine Nutzer relevant und effektiv macht und was wir dabei gelernt haben. Vertiefen Sie mit uns unsere aktuelle Initiative Gebotsindividualisierung, bei der wir im Rahmen der vorgegeben Kampagnenbudgets ROI maximierende nutzerindividuelle Gebote berechnen. Dabei prognostizieren wir durch maschinelles Lernen den Mehrwert der AdImpression am aktuellen Nutzer innerhalb seiner dynamisch attribuierten Customer Journey und den Wettbewerb auf dieser Auktion. Datenrückflüsse aus den Auktionen schließen den Kreislauf und verbessern die Modelle kontinuierlich.
- Herausforderung Marketing Automatisierung
- CRO als integrierte Disziplin
- Chancen, durch die Kombination von CRO und Predictive Analytics
Marketing Automatisierung ist für viele Unternehmen nach wie vor eine Herausforderung, Machine Learning und Artificial Intelligence Zukunftsmusik und Predictive Analytics ist spanned, aber nur mit Big Data umsetzbar. Das sind natürlich alles Buzzwords, die in Mode sind, aber dennoch sollte man das damit verbundene Potential unbedingt kennen. Wer heute noch Conversion Rate Optimierung als singuläre Disziplin sieht, verpasst die Chancen, die sich aus der Kombination von CRO und bspw. Predictive Analytics ergeben. In dieser Session zeigt Ihnen Lennart Paulsen welche spannenden neuen CRO Möglichkeiten sich schon heute eröffnen.
- Aus Print Werbung, die vor 90 Jahren erfolgreich war, lernen
- Neue Ideen für Landingpages, Anzeigen und Content-Marketing
- Viele Praxisbeispiele für die Umsetzung
Geniale Werbeideen altern nicht - im Gegenteil, durch die hohen Kosten bei Print-Werbung früher, wurde deutlich mehr Akribie in die Gestaltung von Anzeigen gesteckt. In dieser Session stellt Robin Heintze erfolgreiche Ansätze aus den letzten 90 Jahren vor und zeigt an Praxis-Beispielen, wie diese auch im Jahr 2017 erfolgreich genutzt werden können. Sie bekommen inspirierende Ideen, die sich für Landingpages, Anzeigen oder auch im Content-Marketing kreativ adaptieren lassen.
- Verbesserung der User Experience mit Hilfe von qualitativen und qantitativen Daten (Micro-Surveys, Remote-Testing, Mouse Tracking und AB-Testing)
- "Schlanke" und userzentrierte Produktentwicklung mit Hilfe von Daten
- Use Case auxmoney
Analytics Daten liefern oft nur erste Anhaltspunkte für Optimierungspotenziale. Sie beantworten v.a. die Frage nach dem „Wie?“ z. B. „Wie verhalten sich unsere Nutzer und wo gibt es Probleme?“ Doch für die Optimierung muss man auch die Frage nach dem „Warum?“ beantworten: z. B. „Warum brechen Besucher im Bestellprozess ab?“. Dass dies auch ohne aufwändige Use Labs oder teure Tools geht, zeigt Mateo Vondey in seinem Vortrag. Er stellt vor, wie bei auxmoney „lean“, aber nutzerzentriert entwickelt wird und wie qualitative und quantitative Daten die User-Experience verbessern, z. B. Micro-Surveys, Remote-Testing, Mouse Tracking und AB-Testing.
- Creating user lists based on purchase probability
- How machine learning can increase the overall e-commerce earnings and the revenue per customer
- Open source tools and query samples in a step-by-step guide to implement your own predictive customer journey
Together with 220-volt.ru, one of the largest Russian DIY online-stores, Yandex tried to understand customer behaviour and to find an algorithm to re-distribute marketing budget according to the input of each channel. To do this, they took historical user data and calculated the probability of purchase. In this deep dive / case-study Viktor Tarnavsky will show how machine learning was used to increase the overall e-commerce spendings up to 20%. The revenue per customer also increased significantly: twice in comparison to control group. At the beginning, different machine learning models were tested: logistic regression, random forest, XGBoost. It was checked with AUC ROC metric and used holdout and cross-validation. To make sure the predictions are working they applied finally an A/B test. In this Deep Dive session Viktor Tarnavsky will provide all tools and query samples in a step-by-step guide, so that everyone can try to play with their own raw data using free and open source tools: Yandex.Metrica Logs API, ClickHouse open-source DBMS, Python, Pandas, XGBoost. This session enables you to implement your own predictive customer journey.
Track 2
- Wie nutze ich die zeitliche Anordnung von Weblog-Daten?
- Wie segmentiere ich Customer Journeys und ziehe hieraus Nutzen?
- Welche Data-Science-Methoden kann ich hierfür nutzen?
Im Internet werden täglich gigantische Datenmengen erzeugt. Ein großer Teil dieser Daten sind Weblog-Daten, die das Verhalten von Usern auf Webseiten beinhalten. Um aus diesen Daten komfortabel Nutzen zu ziehen, bieten vielen Anbieter individualisierbare Dashboard-Lösungen an. Diese geben eine sehr gute Übersicht über die Webseitennutzung und deren User.
In dieser Session wird der Nutzen der Daten hinter den Dashboards aufgezeigt und hierfür die Customer Journey in den Fokus gerückt. Es werden Clustermethoden vorgestellt, die sequenzielle Eigenschaften der Daten berücksichtigen und es so ermöglichen, Customer Journeys zu segmentieren. Die resultierenden Segmente sind Sessiontypen, die helfen, die Audience besser zu verstehen und hieraus Businessentscheidungen abzuleiten. Die Verfahren werden an einem möglichen Use Case illustriert. Die zeitliche Ordnung in den Weblog-Daten kann aber auch für eine Vielzahl anderer Analysen und Anwendungen herangezogen werden, von denen einige in dieser Session vorgestellt werden.
- Learnings from AI Experimenets at Experteer
- Benchmarking (Recurrent Convolutiona) Neural Networks for extensive classification based on decision trees and SVM
- Benefits for the day-to-day operations
Classification of text documents is one of the core processes that we have successfully automated with Machine Learning. The challenges we face in the HR Industry are often related to very long text documents in fairly unstructured nature that have to be classified in hundreds of categories. We decided to benchmark our current solution, based on a combination of linear classifiers (SVM, Naïve Bayes, Decision Trees) to a range of algorithms that have generated a lot of buzz. In my presentation we look at how neural networks perform in the area of long document classification on the example of job descriptions. Additionally, we also take a look at Fasttext as an alternative and benchmark all solutions together to see how they perform from a business perspective. To finish, I give you a short overview on our current architecture and how you can use such models in a production environment.
Track 1 - Case Study
- Launch of a completely new data science program
- Forming of the analytics strategy, analytics roadmaps, and selected tooling, technology and vendors
- Recruitment of a top-notch data science team
In this case study, we’ll explore the challenges and opportunities faced by Dr. Stephenson when he was brought onboard by Belvilla, an Axel Springer subsidiary and one of Europe’s leading online booking platforms, to launch a completely new data science program during a period of triple digit company growth. We’ll discuss how the analytics strategy was formed, the short- and long-term analytics roadmaps were constructed, and tooling, technology and vendors were selected. We’ll also talk about how perhaps the most difficult objective, the recruitment of a top-notch data science team was achieved.
- Manuelles Testen von Modellierungen für große Datensätze ist zeitaufwendig
- Analyse von Big Data mit Hilfe von unüberwachtem maschinellem Lernen?
- In dieser Session werden Varianten des klassische Clusterings und deren Strukturierung diskutiert, um effektive Visualisierung zu ermöglichen
Big Data-Analysen erfordern komplexe "tiefe" Analyseverfahren, die in großen Datensätzen interessante Zusammenhänge finden. Analysten verbringen viel Zeit damit, Modellierungen für solche Datensätze manuell auszuprobieren und nach verwertbaren Datenpunkten zu suchen. Kann ein Computer dabei helfen? Unüberwachte Formen des maschinellen Lernens können bei der "Erkundung" von neuen, großen Datensätzen helfen, solche inneren Strukturen an die Oberfläche zu bringen. Wir diskutieren nützliche Varianten des klassischen Clusterings basierend auf naiven Bayes-Modellen und wie diese Modelle weiter strukturiert werden können, um effektive Visualisierungen von großen Datensätzen zu erhalten.
- Vielzahl der anfallenden Daten werden nur zur ihrem originären Zweck verwendet und nicht für weitere Nutzungsmöglichkeiten archiviert
- Fundament für Industrie 4.0 durch sicheren und zertifizierten Datenaustausch zwischen Unternehmen
- Nutzung und Verbreitung von Smart-Service-Konzepten
Die Wertschöpfung in der produzierenden Industrie ist heutzutage geprägt von kapitalintensiven Produktionsanlagen, welche sich durch einen hohen Grad an Automatisierung auszeichnen. Dabei liegt es in der Natur der Sache, dass im fortlaufenden Betrieb eine Vielzahl von Daten anfallen. Oftmals werden diese aber nur zur ihrem originären Zweck, dem Steuern und Regeln der Produktionsprozesse verwendet und nicht etwa für weitere Nutzungsmöglichkeiten archiviert.
Im Rahmen des Deep Dive Workshops zeigen wir am Beispiel von Anlagensteuerungsdaten und Sensorik zur Zustandsüberwachung, wie über intelligente Prozess- und Maschinendatenerfassung Smart Services entstehen können, aber auch welche neuen Herausforderungen bezüglich Daten- und Informationsaustausch auf Industrieunternehmen im Kontext Industrie 4.0 zukommen werden. Hier stellen wir den Industrial Data Space vor, der ein Fundament für Industrie 4.0 bildet, indem er sicheren und zertifizierten Datenaustausch zwischen Unternehmen ermöglicht, ohne dass die Eigentümer der Daten die Souveränität, d.h. die Kontrolle über ihre Daten verlieren. Er fördert damit die Nutzung und Verbreitung von Smart-Service-Konzepten.
- Focus on data storytelling used to be on visualization techniques
- The task of interpreting the models becomes more complex, because data becomes more complex
- Ways to unravel complex descriptive and predictive models
As data science captures more attention from decision makers, translating the models from the language of the analyst into a language of the decision maker has become an important topic at conferences and in journals. It used to be that the focus on data storytelling was on visualization techniques. While this is important, as analyses become more complex, the task of interpreting the models likewise becomes more complex. Before we can decide on visualization techniques, we first need to uncover what to visualize. In this keynote, Mr. Abbott will describe ways to unravel complex descriptive and predictive models so they can be explained and visualized using machine learning models and resampling techniques.
- Fakten sind wichtig, aber sie mobilisieren nicht
- Rapid Response Campaigning, Framing und Polarisierung als Schlüssel zur Aufmerksamkeit?
- Kampagnen müssen wie Wahlkämpfe geführt werden
Spätestens seit Trump ist klar: Wer in der heutigen Aufmerksamkeitsökonomie punkten will, muss polarisieren. Fakten sind wichtig. Aber sie mobilisieren nicht. Hillary Clinton kann ein Lied davon singen. Ist die Kombination aus Rapid Response Campaigning, dem richtigen Framing und gnadenloser Polarisierung der Schlüssel zur Aufmerksamkeit? In seiner Keynote beschreibt der Wahlkampfexperte Julius van de Laar, warum die Zeit von lang im Voraus geplanten Kampagnen vorbei ist und Organisationen sich mehr trauen müssen ihre Kampagnen wie Wahlkämpfe zu führen.
- Bringing data into action
- DWH User Interaction
- Data availability vs. Data Marts
We talked a lot about data during the last years. Big data, smart data, predictive data, machine-generated data, user-centric data as well as huge topics like mobile & data science. We all know how important they are but we forgot about the most important thing: Bringing data into action.
Let’s get practical. Let’s use all the data and infrastructure we build during the last years. Let’s include all the new media technologies and IoT which is getting introduced every month. We now know how to store and analyze data - now lets execute!
- Predictive Maintenance und Total Asset Optimisation
- Praktische Anwendungen von Machine Learning
In seinem Vortrag stellt Dominik Claßen eine Herangehensweise für IoT-Lösungen vor, insbesondere für die populärsten Anwendungen - Predictive Maintenance und Total Asset Optimisation. Sein Vortrag beinhaltet praktische Anwendungsszenarien für automatisiertes Machine Learning: Zwei Use Cases verdeutlichen, wie Unternehmen dank Machine Learning und eines hohen Automationsgrads massive Ersparnisse pro Asset erzielen konnten. Und wie dies sogar zu einer radikalen Änderung des kompletten Geschäftsmodells führte.
- Customer Centricity: more than just a mindset
- The role of customer centricity for the development of successful digital products
- Practicing customer centricity with effective workflows
- Slide free session
- Complex topics explained through simple stories
- If you run A/B tests for conversion optimisation, this session is for you
Lukas Vermeer works for a company that runs more than a thousand experiments every day. He is responsible for the internal tooling and training that helps product development improve the customer experience in measurable steps. In this session, Lukas will share some „statistical stories“ that have helped scale their testing culture. Complex topics, such as early stopping rules; false positives and false negatives; sample ratio mismatch; and selective attrition, are all explained through simple stories that can help anyone understand their test results better. If you run A/B tests for conversion optimisation, this session is for you. No slides, just stories and Q&A.
- Erstellung von effektivem Microcontent
- Testresultate zu Interessenten Leadgenerierung (B2B)
- Besonderer Fokus Optimierung der Micro Conversions von Videos
Jedes Element auf der Landingpage (Headline, Teaser, Bilder, Videos, PDF, Buttons, Social Sharing etc.) verfolgt Mikroziele im Sinne der Leadgenerierung. Welchen Content diese Elemente transportieren und wie diese angeordnet sind, hat dabei enorme Auswirkungen auf die Effektivität der einzelnen Elemente. Und jedes einzelne Element in sich ist mehr oder minder erfolgreich dabei, die Leadgenerierungsraten zur steigern. In dieser Session zeigt Stefanie Eck, wie wirksamer Microcontent erstellt wird und Christian Tembrink präsentiert im Anschluß die Resultate zweier Tests, beide aus dem B2B Bereich, bei denen es zum einen um die Interessenten Leadgenerierung seiner Agentur und zum anderen um Leadgenerierung für ein Software Unternehmen geht (Demo Accounts testen). Im zweiten Teil wird ein besonderer Fokus auf die Optimierung der Micro Conversions von Videos gelegt.
- Fachlicher Austausch
- Kleine Teilnehmer-Runden
- Moderiert von Fachexperten
Seit Ihrer Gründung hat sich eMetrics zu einem willkommen Ort für einen freien Austausch entwickelt, wo man voneinander lernen und Anregungen sammeln kann. Unter Moderation der Fachexperten diskutieren die Teilnehmer im kleinen Kreis der Interessierten folgende Themen:
1. Digital Analytics Prozesse im Unternehmen: Wie arbeiten Sie effektiv in Ihrem Team und mit anderen Bereichen in Ihrem Unternehmen zusammen? Wie schaffen Sie es, Gehör zu finden und Entscheidungen im Unternehmen zu beeinflussen?
2. Recruiting und Teambuilding: Wie finden Sie Analytics Experten für offene Stellen? Welche Kultur hat sich bewährt, um Top-Experten zu halten und das Analytics Team optimal im Unternehmen zu verankern?
3. Personalisieren Sie schon oder segmentieren Sie noch? Wo stehen Sie in Sachen Personalisierung und wie sieht die zugehörige Tool- und Prozesslandschaft aus?
4. Marketing Attribution: Mit welchen Methoden, Ansätzen und Tools arbeiten Sie in Ihrem Unternehmen? Welche Vor-und Nachteile sind mit den unterschiedlichen Lösungen verbunden?
5. ePrivacy Richtlinie: Wie vorbereitet ist Ihr Unternehmen, was wird sich verändern, wo sind noch Unsicherheiten?
Sehen Sie, wie Dataiku DSS Data Science Projekte unterstützt und worauf Enterprise-Kunden achten, wenn sie Projekte in Produktion überführen wollen:
- Sicherheit
- Monitoring
- Reproduzierbarkeit
- Methoden und Algorithmen vzur Extraktion von Anomalien und Auffälligkeiten aus großen Datenmengen
- Bspw. Zeitreihenanalyse, Mustererkennung, Ursachenanalyse und Gruppenbildung
- Maschinelles Lernen ohne sog. Labels
Viele Firmen haben in den letzten Jahren umfangreiche Data Lakes erstellt, in der Hoffnung, mit den daraus gewonnenen Erkenntnissen Geschäftsentscheidungen zu verbessern und zu beschleunigen. Doch es macht sich mittlerweile auch erhebliche Frustration breit, weil sich die Extraktion nützlicher Informationen aus großen Datenmengen doch erheblicher schwieriger gestaltet als ursprünglich angenommen. Dieses Tutorial stellt einige generell anwendbare Methoden und Algorithmen vor, mit den sich Anomalien und Auffälligkeiten aus großen Datenmengen extrahieren lassen. Hierzu gehören beispielsweise: Zeitreihenanalyse, Mustererkennung, Ursachenanalyse und Gruppenbildung. Auch wird ein Verfahren gezeigt, wie maschinelles Lernen zum Einsatz kommen kann, auch wenn keine sog. Labels zur Verfügung stehen, was in der Praxis oftmals der Fall ist.
- Deep Learning and Deep Neural Networks demystified
- From data-driven to smart modeling bringing together data, artificial intelligence and domain knowledge
- Applications of deep neural networks inside Siemens and their benefits
This session focuses on a new hype wave in neural network modeling called Deep Learning or Deep Neural Networks. Dr. Ralph Grothmann will look behind the scenes and explain the differences between “standard” feedforward and deep neural network models. The decay in gradient information over long chains of hidden layers can be avoided by e.g. multiple outputs, information highways or short cuts, as well as stochastic learning rules. Auto-associators and convolutions enable us to model high-dimensional input spaces by the automated generation of features. Besides deep feedfoward neural networks we will also deal with time-delay recurrent neural network architectures, where deepness is a natural feature when non-algorithmic learning techniques like error backpropagation through time are used. Dr. Ralph Grothmann will give examples of the application of deep neural networks form recent project work and show the merits of the “new” approach in comparison to non-deep modeling techniques. Among others you will deal with the modeling of e.g. the energy supply from renewable sources, energy load forecasting as well as the identification of features responsible for component failures and soft sensor modeling.
- Herausforderungen der fachlich- technische Verknüpfung von klassischer BI und moderner Data Science
- Dimensionen Technologie, Tools, Prozesse, Skills, Organisation und Unternehmenskultur
- Erfolgsfaktoren dieses Changeprozesses
Die fachlich- technische Verknüpfung von Aspekten der klassischen BI und moderner Data Science – alles möglichst unter einem Dach – stellt viele Unternehmen teilweise vor große Herausforderungen.
Wie bringt man Enterprise-Architektur, Governance und Stabilität einerseits mit Agilität, Data Science und Big Data-Fähigkeit andererseit unter einen Hut?
"Will it blend?" ist dabei die Frage, die sich viele Unternehmenslenker heute stellen und für die in den Dimensionen Technologie, Tools, Prozesse, Skills, Organisation und Unternehmenskultur Antworten erarbeitet werden sollten.
Im Rahmen der Präsentation beleuchtet Herr Nolte anhand seiner praktischen Erfahrungen die wichtigen Erfolgsfaktoren dieses Changeprozesses.
- Verhalten: Medienäquivalenzanalyse mit Google Analytics.
- Content Experience: Wie zufrieden sind Nutzer wirklich?
- Attribution Content Marketing: Wie ist der langfristige Wertbeitrag Ihres Content Marketing?
In dieser Session zeigt Ihnen Alexander Holl, wie man mit Google Analytics den Wertbeitrag Ihrer Content Marketing Strategie effektiv messen kann. Und das abseits von Klicks,Sitzungen oder Absprungrate. Lernen Sie, wie Sie mit Dashboards, Segmenten und Attributionsmodellen Inhalte detailliert analysieren können und direkt anwendbare Optimierungsstrategien entwickeln.
- Learnings aus fast 2.000 A/B Tests,
- Dos & Don’ts beim Landing Page Testing
- Mehr Leads & Sales, indem man im Funnel „vor“ und „nach“ der Landing Page ansetzt
Die kontinuierliche Landing Page Optimierung sollte heute in jedem Unternehmen absoluter Standard sein. Aber gerade wenn man Prozesse etabliert hat, sollte man darauf achten, sich nicht mit dem Status Quo zu begnügen. Nils Kattau teilt in dieser Sessions seine Learnings aus fast 2.000 A/B Tests, gibt Tipps zu den Dos & Don’ts beim Landing Page Testing und zeigt, wie man Leads & Sales steigert, indem man im Funnel „vor“ und „nach“ der Landing Page ansetzt.
- Supplementing your web analytics data with detailed clickstream data opens a new world of insights
- Your web data can provide valuable input for data science projects
- Case study from a recent project with a rapidly growing European platform
We can achieve tremendous business value by upgrading our web analytics with big data (un-sampled clickstream) technology. With current commercial offerings, such a system can be built and used remarkably easily. Tapping into your clickstream data opens new possibilities not only in customer journey analysis but also in product development and in data science. In this session, David Stephenson explains how to combine web analytics and data science as well as quick ways to leverage existing web analytics tooling to gain deeper insights into customer journey. He’ll illustrate these techniques with a recent case study, which included deployment of a real-time recommendation engine fueled by web analytics tags.
- Wie lässt sich der Wetter-Effekt identifizieren und quantifizieren?
- Lohnt es sich basierend auf dem Wetter Marketing oder Onsite Kampagnen auszusteuern?
- Methodik, Chancen und Fallstricke von Wetter-Analytics und Wetter-Targeting
Wetter ist ein tagtäglicher Einflussfaktor auf Konsumentenentscheidungen. Viele Marketing-Verantwortliche wissen aus Erfahrung, dass Wetter Ihre Kampagnen und Sales-Performance stark beeinflusst. Aber wie lässt sich der genaue Wetter-Effekt identifizieren und quantifizieren? Und lohnt es sich überhaupt – basierend auf dem Wetter – Marketing oder Onsite Kampagnen auszusteuern? In diesem Vortrag sollen anhand konkreter Case Studies Methodik, Chancen, aber auch die Fallstricke von Wetter-Analytics und Wetter-Targeting aufgezeigt werden.
Track 2
- Kampagnenmanagement globaler B2B Kampagnen mit Tableau Dashboards
- Dashboards der globalen Sommerkampagne 2017 von GORE-TEX®
- Planung und Umsetzung bei W. L. Gore, Einblicke in die wichtigsten Learnings
Wie misst man den Erfolg globaler B2B Kampagnen mit Tableau Dashboards? Wie lassen sich diese Dashboards so planen und einsetzen, dass sie von Kollegen und Agenturen genutzt werden? Am Beispiel der globalen Sommerkampagne 2017 von GORE-TEX® werden die Dashboards live präsentiert und diskutiert. Korbinian Spann berichtet, wie die Planung und Umsetzung bei W. L. Gore durchgeführt wurde und gibt Einblicke in die wichtigsten Learnings.
- Auswirkungen der europäischen Datenschutzgrundverordnung (General Data Protection Regulation – GDPR) auf Unternehmen
- Welche juristischen Änderungen sind wichtig?
- Antworten der GDPR auf die technischen Fragen von morgen
Ab 2018 wird die europäische Datenschutzgrundverordnung (General Data Protection Regulation – GDPR) in nationales Recht umgesetzt. Damit geht ein langer politischer Prozess in einer Zeit zu Ende, in der sich die digitale Welt schon zweimal um sich selbst gedreht hat. Welche Auswirkungen haben die neuen Regelungen auf die Unternehmen? Welche juristischen Änderungen sind wichtig und welche Antworten bietet die GDPR heute auf die technischen Fragen von morgen wie künstliche Intelligenz und Predictive Analytics?
Track 1 - Case Study
- DSGVO (Datenschutzgrundverordnung / Englisch GDPR) ist das weitestreichende Gesetz zum Schutz persönlicher Daten
- Die fünf Kernthemen, die für das Predictive Modeling relevant sind
- Konkrete Beispiele zur Lösung dieser Herausforderungen basierend auf Open Source Software
Die neue DSGVO (Datenschutzgrundverordnung / Englisch GDPR), die am 25. Mai 2018 für die gesamte EU in Kraft tritt, ist das weitestreichende Gesetz zum Schutz persönlicher Daten. Es birgt einige neue Anforderungen an Data Scientists im Umgang mit persönlichen Daten – sowohl im B2C als auch im B2B-Umfeld. Dieser Vortrag befasst sich aus praktischer Sicht mit fünf Kernthemen, die für das Predictive Modeling relevant sind: Informationspflicht, Erlaubnis für die Datennutzung, Recht auf Vergessenwerden, Diskriminierung und Pseudodiskriminierung sowie Anonymisierung von Daten. Der Vortrag stellt konkrete Beispiele zur Lösung dieser Herausforderungen vor, die auf Open Source Software basieren und die Sie im Anschluss selbst ausprobieren können.
- Guided tour through the most important R packages
- How to use R for predictive modeling
- Work with universal and specialized packages and much more
R is a standard tool for predictive modeling. It allows to use hundreds of predictive models and build complex workflows. The presentation is a guided tour through the most important R packages. It is illustrated with working R examples. You will learn how to:
– use R for predictive modeling including feature selection, model building, validation, and deployment
– work with universal and powerful packages `caret` and `mlr`
– a couple of specialized packages like `xgboost` and `caretEnsemble`
– supporting packages like `PMML`
– as a help we will use H2O and Spark
– and others
Das Angebot an Software für Advanced Analytics und Machine Learning wächst und wird mitunter unübersichtlich. Zahlreiche Open Source Angebote, aber auch proprietäre Softwarepakete stehen zur Verfügung. In dieser Deep Dive Session wird zuerst ein kurzer Überblick über das Angebot an Software gegeben und die Unterschiede bzw. Stärken und Schwächen der Softwarepakete werden skizziert. Im Anschluss werden drei Lösungen „live“ anhand von konkreten Beispielen vorgestellt.
RapidMiner
TensorFlow
H20.ai
- Viele Webseiten werfen Fragen auf, statt Antworten zu liefern
- Marketer sind oft nur Sender und versetzen sich nicht in die Lage der Nutzer
- Do's and Don'ts damit Besucher verstehen, was Sie anbieten
Häufig werden Webseiten von Unternehmen mehr Fragen auf, als sie beantworten. Warum fällt es uns so schwer, weniger als „Sender“ zu fungieren und uns statt dessen in die Besucher zu versetzen? Ja, warum eigentlich – so schwer ist das eigentlich gar nicht, wie Tobias Aubele und Mario Fischer anhand vieler praktischer Beispiele der Do and Don´t im Web aufzeigen.
- Basis 101 style must haves as well as innovative analytics approaches
- What makes a good analytics team great?
- Which methodologies, tools, visualizations and more are key?
What makes a good analytics team great? How do you leverage the most from your insights? Which methodologies, tools, visualizations and more are key to successfully creating a data-driven culture in your business? This presentation will lead you through a journey from basics 101 style must-haves in analytics to challenging your status quo with best practice and innovative analytics approaches. No one has perfected analytics yet, but it’s never too late to start trying.
Ever since the British Navy launched its Longitude prize in 1714, have prizes and competitions advanced science, technology and business. Lindberg crossed the Atlantic to win the Orteig prize, DARPA’s grand challenges led to the development of the autonomous car, and Netflix used data competitions to increase its revenues dramatically. Today we are announcing the 42.ai competitions where corporates can connect with hundreds of brains from selected AI start-ups to solve your data challenges in a secure way.
- True innovation starts with asking Big Questions
- New perspectives on the Big Data and Data Science challenges we face today
- How learning from the past can help you solve the problems of the future
The “Big Data” and “Data Science” rhetoric of recent years seems to focus mostly on collecting, storing and analysing existing data. Data which many seem to think they have “too much of” already. However, the greatest discoveries in both science and business rarely come from analysing things that are already there. True innovation starts with asking Big Questions. Only then does it become apparent which data is needed to find the answers we seek.
In this session, we relive the true story of an epic voyage in search of data. A quest for knowledge that will take us around the globe and into the solar system. Along the way, we attempt to transmute lead into gold, use machine learning to optimise email marketing campaigns, experiment with sauerkraut, investigate a novel “Data Scientific” method for sentiment analysis, and discover a new continent.
This ancient adventure brings new perspectives on the Big Data and Data Science challenges we face today. Come and see how learning from the past can help you solve the problems of the future.
Data Driven Business - Berlin - Tag 2 - Dienstag, 14. November 2017
- How Deep Learning is fuelling the Artificial Intelligence hype
- Examples of breakthrough Deep Learning Applications
- Demos of Neural Networks in forecasting employed by leading companies
Artificial Intelligence (AI) and Machine Learning (ML) have caught the attention of the tech community, fuelled by the availability of Big Data and the advent of Deep Neural Network algorithms. As a result, tech leaders of Facebook, Google, Amazon, Uber and Cisco promise disruptive breakthroughs in industry applications across manufacturing, logistics, and retailing, well beyond the beyond the current applications of face/image/speech recognition.
However, the adoption of AI in time series prediction and forecasting is lagging, with only few applications showcased to date. This presentation will show live demos of how artificial neural networks learn from time series data and forecast in real-time, using historic sales data at FMCG manufacturer Beiersdorf, global calendar effects at logistics provider Virgin Atlantic Cargo, and weather, price and football effects for beer manufacturer ABInBev.
- „Gehirngerechte“ Präsentation
- Neue Ansätze der Aufmerksamkeitsökonomie gepaart mit Visual Storytelling
- Punktuelle Erhöhung der Aufmerksamkeit
Gute Ideen, spannende Innovationen und wichtige Entscheidungen gehen in der Vielzahl an täglichen Informationen unter – oftmals weil sie nicht gut präsentiert wurden – oder besser gesagt zu wenig „gehirngerecht“ präsentiert wurden. Neue Ansätze der Aufmerksamkeitsökonomie gepaart mit Mustern des Visual Storytellings bringen Sie in die Lage, die Aufmerksamkeit Ihrer Kunden und Kollegen punktuell zu erhöhen, ihre Ideen zu vermitteln und nachhaltig zu verankern.
- Integration von TV-Daten in Web Analytics
- Mögliche Auswertungen
- Rückschlüsse, die Unternehmen aus den Daten ziehen können
Der Erfolg von TV-Werbung, die nach wie vor den größten Teil der Gesamtwerbeaufwendungen in Deutschland einnimmt, ließ sich lange Zeit nur indirekt über Einschaltquoten und Marktforschungsbefragungen quantifizieren. Aber was ist mit direkten (Re-)Aktionen potentieller Kunden? Hier kommt TV-Analytics ins Spiel. Die Kombination von TV-Ausstrahlungsinformationen mit Web Analytics-Daten ermöglicht es, den Effekt von TV-Werbung im Online-Kontext konkret messbar zu machen. In dieser Session stellt Eva Anderl vor, wie die Integration von TV-Daten in Web Analytics funktioniert, welche Auswertungen dadurch möglich werden – und welche Rückschlüsse Unternehmen daraus ziehen können.
- Von der Idee mittels Data Analytics zum Erfolg
- Wie kann eine nachhaltige und skalierbare Data Analytics-Umgebung entstehen?
Von der Idee mittels Data Analytics zum Erfolg: die schier unendliche Menge an Daten führt häufig dazu, dass Data Analytics-Projekte enorme Dimensionen annehmen. Man verliert sich in Open Source- und Technologie-Diskussionen und steht vor einem Riesenberg an Anforderungen. Um gezielt und schnell eine Antwort auf diese Aufgabenstellung zu bekommen, ist ein strukturiertes und methodisches Vorgehen nötig. Im Rahmen der Session wird hierfür eine Vorgehensweise aufgezeigt, um vom Business Case schrittweise zur betriebswirtschaftlich sinnvollen, nachhaltigen und skalierbaren Data Analytics-Umgebung zu gelangen.
- Demystify the little problems that add up to poor mobile experience
- Improving and measuring mobile UX on your website (responsive, adaptive, mobile subdomain)
- More advanced mobile experiences, including PWAs and deep-linked apps
Consumers are spending significantly more time and money on their phones, yet most users hate the mobile experience and companies are still struggling!! In this session, two internationally recognized mobile experts, Cindy Krum and Emily Grossman will help demystify the little problems that add up to poor mobile experiences and therefore pitiful mobile conversion rates. Mobile UX issues filter down to all aspects of a mobile experience, and can have a significant impact on bounce rate, cart abandonment and lost conversions. Half of the session time will focus on improving and measuring mobile UX on your website, weather it is responsive, adaptive, or just a mobile subdomain. The second half of the session will focus on more advanced mobile experiences, including PWAs and deep-linked apps. You will walk away from the session knowing exactly what metrics they can use to identify and fix the biggest UX hurdles in your user's mobile experience.
- Wie kann man seine Kunden nach dem Kauf weiterhin begeistern?
- Wie bringt man sie dazu, erneut zu bestellen?
- Welche Arten von Inhalten funktionieren am besten und wie kann man diese einfach umsetzen?
Etwa ein Viertel des Umsatzes europäischer Online Shops kommt von wiederkehrenden Käufern und Bestandskunden. Aber viel zu wenig Unternehmen setzen ausreichend Fokus auf das Marketing „danach“ – Kundenbindung, Upselling und Engagement sind Wachstumsfaktoren mit enormen Potential. In ihrer Session zur Serve-Phase der Customer Journey zeigt Content-Marketing-Spezialistin Silja Troll mit vielen anschaulichen Beispielen wie jeder seine Kunden ganz leicht mit Content Marketing auch in dieser Phase begleiten kann.
- How to eliver high-quality actionable insights instead of being occupied full-time with reporting
- Ensure appropriate stakeholder communication and effeicent business processes that support effectice and efficient analytics
- Sustainable tracking planning in the world of agile development
Do we need to track it all? Or do we need to track right things right? What is actually the value of correct data? Probably every second (being optimistic) your web analytics department is facing a dilemma: how can we focus on delivering high-quality actionable insights instead of being occupied full-time with reporting and/or (re-)defining, checking, fixing and even understanding our own tracking? As difficult as it can be to achieve high data quality, there is still a way to break the vicious circle and focus on delivering actual business impact. During this session, Anna will discuss how to ensure appropriate stakeholder communication and business processes that support effective and efficient analysis, sustainable tracking planning in the world of agile development and future uncertainty, defining the value and the cost of every implementation, knowing the full capacity of your analytics tools and much more.
- Aktuelle Ansätze für die personalisierte Kundenansprache
- Web & App-Inhalte personalisieren, Prospecting- und Remarketing-Kampagnen effizienter auszusteuern
- Aufbau eines nutzerzentrierten Datenpools
Das große Schlagwort „Personalisierung“ ist allgegenwärtig. Ihre Kunden erwarten an allen Touchpoints Ihrer Customer Journey ein individuelles Angebot. Inzwischen gibt es eine große Bandbreite an Innovationen für die Personalisierung Ihrer Kundenkommunikation, eine gemeinsame Grundlage haben sie alle – Daten. Wir betrachten aktuelle Ansätze für die personalisierte Kundenansprache und zeigen anhand von Praxis-Cases auf, wie Sie Ihre wertvollen Daten in verschiedenen Kanälen und geräteübergreifend verfügbar machen, um:
- Ihre Web & App-Inhalte zielgruppengerecht zu personalisieren
- Prospecting- und Remarketing-Kampagnen effizienter auszusteuern
- Einen nutzerzentrierten Datenpool aufzubauen
- Does the benefits case matter if no one believes it?
- What do you do if the computer genuinely can’t outperform the human?
- Can a solution to be “too advanced” for the business need?
Alex discusses the challenges of coming into a forecasting project that is already deployed and hailed as a technical success, yet is beset by business scepticism and challenge to roll-back. While learning finance on the job, Alex was thrust into the analytics and politics of an exciting technical solution but one with little business belief. Despite all the hard work and effort getting to ‘go-live’, the hard part was far from over and some very familiar questions were raised:
- Does the benefits case matter if no one believes it?
- What do you do if the computer genuinely can’t outperform the human?
- Can a solution to be “too advanced” for the business need?
Track 1 - Case Study
- Typical problems and hidden traps in creating strategy against a VUCA backdrop
- Tensions that exist across our unavoidably uneven knowledge of the world
- Mental models to help leaders grapple with this wicked problem
Political bombshells, unimaginable terrorist attacks, epidemic outbreaks, natural disasters, technological disruptions, fractured markets, transitory advantages, multifarious competitors, increasingly demanding customers and fickle consumers. Thanks to the military, we have a useful descriptor for the conditions and environment these drivers create; ‘VUCA’ – Volatility, Uncertainty, Complexity and Ambiguity… a combination of the magnitude and speed of change, the lack of predictability and prospect of surprise, the multitude of forces and confounding issues, and the lack of ‘one right answer’ or single course of action. Yet against this backdrop many organisations are still carrying the early, often ill-formed, baggage of implicit promises and expectations of Big Data and Analytics, and the mindset of operating in more stable conditions. And that’s before we get to sentiment mining, machine learning, edge analytics and the like. There is no question about the power, pervasiveness, further potential and applicability of predictive analytics. But it is at the edge of this applicability that things get interesting; where a VUCA environment lays cognitive traps for those focused on ‘getting to the right answer’ rather than ‘asking the right questions’. In the context of strategy development, deployment and delivery in the real world, this edge – between prediction and insight, between extrapolation and choice, between algorithm and decision – is critical. This session explores some of the typical problems and hidden traps in creating strategy against a VUCA backdrop, considers the tensions that exist across our unavoidably uneven knowledge of the world, offers some mental models to help leaders grapple with this wicked problem, and to help you drive the most impact and value in support of your strategy.
- Machine Learning zur Optimierung von Text & Bild von Werbeanzeigen
- Feature Engineering Methoden für NLP, Image Recognition mittels Deep Learning, Diskussion der Modellwahl
- Kritische Erfolgsfaktoren bei der Entwicklung eines Data Products
Machine Learning ist im Online Marketing allgegenwärtig. Der Fokus liegt jedoch meist auf der Optimierung der Auslieferung und weniger der Gestaltung von Ads. Die Auswahl von Text und Bild erfolgt oftmals nach Bauchgefühl und persönlicher Erfahrung. In dem Vortrag zeigen wir, wie plista Machine Learning verwendet, um Werbetreibende bereits in der “kreativen Phase” mit Empfehlungen bezüglich der Text- und Bildgestaltung zu unterstützen. Welchen Einfluss hat ein Wort auf die Klickrate? Was sind bessere Formulierungen? Welche Objekte im Bild erregen die Aufmerksamkeit? Wir behandeln Feature Engineering Methoden für NLP (u.a. Entity Recognition), diskutieren die Modellwahl und teilen unsere Erfahrungen bezüglich der schlanken Entwicklung eines Data Products. Im Bereich der Bilderkennung präsentieren wir zudem unseren Deep Learning Ansatz einer neu trainierten Inception-v3 Architektur.
- Wie Uplift-Modelle funktionieren
- Wie man diese auf eigenen Daten erstellt
- Fallstricke, die man beachten muss
Uplift Modelling wird oft als der Heilige Gral des Marketings beschrieben. Die Anwendung dieser Technik soll den Marketer in die Lage versetzen, nur die Kunden zu bewerben, bei denen dieser Anstoß auch zu einer Reaktion führt. So spart man sich das Aufwecken "schlafender Hunde" im Falle von Vertragskündigungen und schreckt keine potentiellen Kunden ab, die nach dem x-ten Newsletter genervt abwinken.
In der Praxis wird Uplift Modelling bis jetzt selten angewandt, da das Feld komplex und fehlerträchtig ist.
Die Deep-Dive-Session "Uplift-Modelling Hands-on" zeigt praxisnah, wie Uplift-Modelle funktionieren, wie man diese auf eigenen Daten erstellt und welche Fallstricke man beachten muss.
- Bereit für Denkanstösse, provokante Thesen und jede Menge Lachen?
- Mut zur Veränderung, aber auch Mut zur Lücke und Gelassenheit
- Überlebensstrategien, um aus dem Teufelskreis Angst, Ungeduld & Aufregung auszubrechen
Sind Sie bereit für eine aufrüttelnde Predigt, mit gewagten Denkanstössen, provokanten Thesen und jeder Menge Lachen? Robert Seeger rückt das richtige Mindset für Conversion Optimierung im Zeitalter der digitalen Transformation in den Mittelpunkt. Denn nur wer Mut zur Veränderung, aber auch Mut zur Lücke und Gelassenheit hat, wird verstehen, dass gute Unternehmen zwar in den Himmel kommen, böse aber im Warenkorb landen. Hier holen Sie sich Überlebensstrategien, um aus dem Teufelskreis Angst, Ungeduld & Aufregung auszubrechen.
- Optimales Zusammenspiel von Kampagnenkreation, personalisierte Aussteuerung und Conversion Optimierung mit Hilfe von Daten
- Automatisierte Marketing Technologien
- Herausforderung Mensch vs. Maschine in der digitalen Analyse
Kampagnenkreation, personalisierte Aussteuerung und Conversion-Optimierung, sowie Digitale Analyse und Testing werden meist umfassend als einzelne Disziplinen praktiziert. Doch wie funktioniert das optimale Zusammenspiel auf Basis von Daten in der Praxis? Welche Voraussetzungen müssen erfüllt sein und welche Herausforderungen gilt es zu berücksichtigen? Können automatisierte Marketing Technologien wirklich die Arbeit erleichtern? Diese und weitere Learnings erläutern Stefan Bruckmaier und Tanja Todt anhand diverser Use Cases, wie z.B. der DKB Kampagne.
Track 1
- Eine Zielgruppensegmentierung zur Steuerung von ATL- und BTL-Massnahmen
- Verknüpfung von Marktforschungsstudien, mikro-geographischen Daten und dem eigenen DWH
- Ganzheitlicher Vermarktungsansatz über die klassischen Kanäle sowie Online
Eine marktforschungsbasierte Zielgruppensegmentierung lässt sich oft nicht 1 zu 1 in der eigenen Customer Base abbilden, während umgekehrt analytische Segmentierungsansätze aus der Base sich schwer auf den gesamten Markt übertragen lassen. Ursache ist oft, dass man Merkmalsausprägungen aus der Base nicht im Markt wiederfindet, et vice versa.
Unser Ansatz nutzt deskriptive Methoden auf Basis von übertragbaren Merkmalen statt komplexer statistischer Verfahren um eine einheitliche Segmentierung zu erzielen.
Wir verknüpfen Daten aus der Marktforschung mit mikro-geographischen Daten und Bestandskundendaten aus unserem DWH über die gemeinsame Klammer der Segmente.
Mittels der Segmentierung ermöglichen wir einen ganzheitlichen Vermarktungsangang sowohl in den klassischen Kanälen als auch im Bereich Online.
In einer späteren Projektphase nutzen wir statistische Verfahren um die Validität der Segmentierung zu prüfen und ggfs. zu erweitern.
- Taking mobile marketing efforts to the next level
- Building a comprehensive Marketing Infrastructure
- Creating a data environment that keeps up with growth
You want to scale you app to 2 million users? Then this session is for you. Gessica will tell you the secret ingredients to taking your mobile marketing efforts to the next level. You will learn about the importance of building a comprehensive marketing infrastructure focusing on analytics and data and how to make sure your data environment can keep up with marketing growth.
Track 2
- Optimise your iOS and Android apps
- Factors that contribute to apps ranking in the App Store and Google Play Store
- Tools you can use to start doing ASO
App Store search has become a critical channel for app user acquisition; according to Apple, over 65% of app downloads now come directly from a search on the App Store. In this session, Cindy will show you how to optimise your iOS and Android apps for discovery in App Store search. Attendees of this session will walk away learning why ASO is important and how the App Store and Google Play Store are different. You will also see the factors that contribute to apps ranking in the App Store and Google Play Store, best practices for optimising your app in both stores and tools you can use to start doing ASO effectively.
- Lessons Learned aus der Entwicklung des Produktes Global Motor Risk Map
- Aufbereitung der externen Daten, Validierung der Vorhersagen
- Einbettung in die kundenseitige Prozesslandschaft inklusive automatischer Aufdatierung der Vorhersagen
Die Swiss Re als Rückversicherer operiert – auch im Bereich Predictive Analytics – als B2B-Geschäftspartner für Erstversicherer. Eines der Angebote von Swiss Re ist die Global Motor Risk Map. Dieser Service erstellt Vorhersagen für Unfallrisiken mit hoher geografischer Granularität basierend auf externen Daten wie Bevölkerungsdichte oder der Struktur des Straßennetzwerks. Dies ermöglicht dem Erstversicherer als Kunde seine Geschäftstätigkeit aufgrund konkreter Vorhersagen zu den Auswirkungen von geplanten Maßnahmen zu steuern. Der Vortrag fokussiert auf "Lessons Learned" aus der Entwicklung des Produkts in den Bereichen: Aufbereitung der externen Daten, Validierung der Vorhersagen sowie Einbettung in die kundenseitige Prozesslandschaft inklusive automatischer Aufdatierung der Vorhersagen.
Track 1 - Case Study
- Hohe False-Positive-Ratios beanspruchen erhebliche Ressourcen im Credit Risk Management
- Lösung ausgehend von einer Ereignishistorie und von Schlüsselwörtern, bei der die relevanten Konstellationen und umgebenen Inhaltsfragmente über maschinelles Lernen identifiziert werden
- Ziel: den manuellen Arbeitsaufwand reduzieren und intelligent über mögliche Veränderungen informiert zu sein
Die herkömmlichen quantitativen Finanzanalysen unterliegen hinsichtlich Ausfallfrüherkennung mitunter eheblichen Zeitverzögerungen. Aus diesem Grund kommt qualitativen Faktoren und hierbei insbesondere öffentlich verfügbaren Krisensignalwerten eine erhebliche Bedeutung im Credit Risk Management zu. Keyword-Alerting ist hierbei jedoch heute noch viel zu oft statisch. Begriffslisten werden manuell im Web gesucht und liefern unzureichende Ergebnisse. Hohe False-Positive-Ratios beanspruchen erhebliche Ressourcen im Credit Risk Management. Daneben mangelt es der statischen Listenabfrage an Flexibilität hinsichtlich zielgerichteter Erfassung der Kreditrisiken. Gemeinsam mit Concardis hat DATAlovers eine Lösung entwickelt, bei der ausgehend von einer Ereignishistorie und von Schlüsselwörtern die relevanten Konstellationen und umgebenen Inhaltsfragmente über maschinelles Lernen identifiziert werden. Fortan werden diese Muster ebenso als Grundlage für ein Alerting herangezogen. Gleichzeitig lernt der Alerting-Mechanismus aus den Fehlalarmen und schärft die Güte des Alerts. Ziel aus Sicht von Concardis: den manuellen Arbeitsaufwand reduzieren und intelligent über mögliche Veränderungen informiert zu sein.
- Prozess zu einer komplett datengetriebenen Software zur Optimierung von Marketing-Aktivitäten wird aufgezeigt
- Interaktive Elemente machen den kompletten Prozess erlebbar
- Besonderer Augenmerk auf der Herausforderung, komplexe Data Science Modelle im agilen Setup zu entwickeln
„Irgendwie müsste es doch möglich sein, unsere Marketing-Entscheidungen automatisiert und datengestützt zu optimieren. Bauchgefühl ist ja gut, aber auf Dauer? Wir haben da doch diesen Riesenberg an Daten. Nein, eigentlich sind es ganz viele Berge. Und eine Idee habe ich auch – lass uns unsere Preissetzung optimieren! Oder doch die Vertriebstätigkeiten?“
In unserer Deep-Dive Session zeigen wir im Detail, wie wir von einem unklaren „Ideenwust“ und einem bestenfalls rudimentären Verständnis von Datenerfordernissen und –realitäten schrittweise zu einer komplett datengetriebenen Software zur Optimierung von Marketing-Aktivitäten kommen. Interaktive Elemente machen den kompletten Prozess erlebbar – von der Priorisierung der Use Cases über die Erstellung erster Design Scribbles in Design Studio Workshops bis hin zur agilen Entwicklung der webbasierten Softwarelösung. Ein besonderes Augenmerk wird dabei auf der Herausforderung liegen, komplexe Data Science Modelle im agilen Setup – welches auf stetige Software-Inkremente abzielt – zu entwickeln. Konkrete Praxisbeispiele ziehen wir aus unseren noch laufenden Entwicklungen von Data Science Webapplikationen zur Retail Store Optimierung, Promotion-Optimierung und zur Produkt-Launch-Optimierung.
- Creating user lists based on purchase probability
- How machine learning can increase the overall e-commerce earnings and the revenue per customer
- Open source tools and query samples in a step-by-step guide to implement your own predictive customer journey
Together with 220-volt.ru, one of the largest Russian DIY online-stores, Yandex tried to understand customer behaviour and to find an algorithm to re-distribute marketing budget according to the input of each channel. To do this, they took historical user data and calculated the probability of purchase. In this deep dive / case-study Viktor Tarnavsky will show how machine learning was used to increase the overall e-commerce spendings up to 20%. The revenue per customer also increased significantly: twice in comparison to control group. At the beginning, different machine learning models were tested: logistic regression, random forest, XGBoost. It was checked with AUC ROC metric and used holdout and cross-validation. To make sure the predictions are working they applied finally an A/B test. In this Deep Dive session Viktor Tarnavsky will provide all tools and query samples in a step-by-step guide, so that everyone can try to play with their own raw data using free and open source tools: Yandex.Metrica Logs API, ClickHouse open-source DBMS, Python, Pandas, XGBoost. This session enables you to implement your own predictive customer journey.
- Preisgestaltung birgt riesiges CRO Potential
- Verkaufspsychologische Preisgestaltung mit wissenschaftlichen Methoden
- Erfahrungsbericht Launchpreis-Strategie mit Hilfe von NeuroPricing für ein B2B Produkt
Viele neuropsychologische Marketingkonzepte wie Verknappung sind bekannt und auf Webseiten im Einsatz. Eine CRO Option, deren Potential aber noch lange nicht ausgeschöpft ist, ist die Preisgestaltung. Was ist der optimale Preis, den der Kunde bereit ist zu zahlen und der gleichzeitig die beste Marge bietet? Funktionieren Anker, Preisfairness, Produktalternativen, Produktreihenfolgen etc. in allen Branchen gleich oder gibt es Branchenunterschiede? Matthias Wirth untersucht die verkaufspsychologische Preisgestaltung mit wissenschaftlichen Methoden und zeigt Ihnen in dieser Session, wie auch Sie den optimalen Preis finden und wie NeuroPricing eingesetzt werden kann, auch wenn Sie eine große Produktpalette im Angebot haben. Im Anschluß zeigt Jàn Bluhm zeigt, wie er für sein Portal uvity, einem Netzwerk für Ingenieure und Techniker, eine Launchpreis-Strategie mit Hilfe von NeuroPricing und mit Hilfe von viel Preispsychologie ausgeklügelt hat.
- Create intelligent and not creepy personalisation
- How to automate personalisation to make it scalable
- How to measure success of personalisation
Being personal isn’t something new, it’s always been the back bone to marketing. Brands like Amazon and Coca-Cola all do this well throughout the customer journey from offline to online, ensuring that every message you receive is personalised. Amazon will email you when a new product you may like launches, all based on your previous purchasing habits. Coca-Cola ‘share a coke’ campaign allowed you to even add your name to the bottle. While we can learn from the big brands it’s clear that we need to automate personalisation to make it scalable. But how does that translate into intelligent and not creepy personalisation? What can be automated and how can you measure the success? In this session Jenna will be providing practical tips on how to automate personalisation, which tools will help you to measure success and identifying when you step over the line of intelligent personalisation to creepy personalisation and how to avoid it.
- Automatisierung und Personalisierung von t-online
- Datenbasierte Optimierung der User Journey
- Neue Workflows für Newsrooms
Der richtige Umgang mit Daten in journalistischen Newsrooms - auch 2017 noch ein Entwicklungs-Thema. Umso spannender ist es, wenn ein Daten-Spezialist wie Taboola und das Newsroom-Team der t-online.de eng zusammenarbeiten, um die besten Wege zu entdecken, die relevantesten Inhalte für 28 Millionen User auszuspielen. Und nein: Natürlich reden wir an dieser Stelle nicht über Content-Recommendation-Boxen am Ende des Artikels.
Seit 2016 arbeiten Taboola und die Ströer Content Group eng zusammen und versuchen, datenbasiert die User Journey auf ein neues Level zu heben und Workflows für Newsrooms neu zu denken. Wie und in welchem Umfang sich die größte deutsche Website t-online.de automatisieren/personalisieren lässt, welche Rolle Voice Assistants in der Arbeit eines Newsrooms spielen und wie es sich anfühlt, wenn zwei digitale Player mit Startup-Charakter aus unterschiedlichen Kulturen aufeinander treffen, darüber werden Eldad Maniv und Arne Henkes reden.
- Die sechs Dimensionen des Reifegradmodells
- 1.000 Interviews quer durch alle Branchen zum aktuellen Stand der deutschen Wirtschaft
- Wie Sie den Reifegrad Ihres Unternehmens bestimmen können
Digital Analytics & Optimization ist längst zu einem festen Bestandteil einer jeden Digitalisierungsstrategie geworden. Mitarbeiter und Entscheider auf allen Hierarchieebenen greifen auf die etablierten Analytics-Methoden zurück, um ihre Zielerreichung zu beurteilen und zu optimieren.
Digital Analytics & Optimization ist kein Privileg einer Business Intelligence Abteilung oder eines Webanalysten. Vielmehr geht es um einen strategischen Wandel in allen Unternehmensbereichen - hin zum datengetriebenen Handeln. Transparenz wird geschaffen, Brücken werden geschlagen, Einblicke in die eigenen Tätigkeitsbereiche werden gewährt, Best Practices werden geteilt - und all das mithilfe von Daten.
Strategie, Kultur & Personal, Organisation, Digitalisierung, Technologie und Daten heißen die sechs Dimensionen des Reifegradmodells, das vom Arbeitskreis Digital Analytics & Optimization in Bitkom mit anerkannten Experten entwickelt wurde. Im Fokus der Untersuchung steht die digitale Interaktion mit dem Nutzer, die den heutigen Alltag so stark prägt. Eine repräsentative Befragung von rund 1.000 Unternehmen soll den aktuellen Stand der deutschen Wirtschaft beleuchten.
Gewinnen Sie einen tiefgehenden Einblick in die methodische Herangehensweise! Erfahren Sie mehr, wie Sie den Reifegrad Ihres Unternehmens bestimmen können! Nehmen Sie wertvolle Handlungsempfehlungen zur Erreichung von höherliegenden Reifegradstufen mit!
- Live price estimation service for used vehicles based on a Random Forest prediction model
- Automated verification using live test data sets in the delivery pipeline
- Release of model improvements at any time
AutoScout24 is the largest online car marketplace Europe-wide. With more than 2.4 million listings across Europe, AutoScout24 has access to large amounts of data about historic and current market prices and wants to use this data to empower its users to make informed decisions about selling and buying cars. We created a live price estimation service for used vehicles based on a Random Forest prediction model that is continuously delivered to the end user. Learn how automated verification using live test data sets in our delivery pipeline allows us to release model improvements with confidence at any time.
- Pricing Algorithmus mit dessen Hilfe für eingehende Transportanfragen ein Marktpreis prognostiziert wird
- Herausforderungen dieser Aufgabe und Lösungsansätze
- U.a. Fuzzyfizierungen der Beobachtungen und maschinelle Lerntechniken
Prognosen sind besonders heikel wenn es um Marktpreise geht. Für die Plattform Cargonexx (www.cargonexx.de) wurde einen Pricing Algorithmus aufgebaut mit dessen Hilfe für eingehende Transportanfragen ein Marktpreis prognostiziert wird. Cargonexx ist als Online-Spedition davon abhängig , dass ihre Preise für Auftraggeber attraktiv genug sind, dass aber anschließend Fuhrunternehmen gefunden werden, die die Aufträge zu einem vorgegeben Preis ausführen, d.h. der prognostizierte Preis muss die aktuelle Marktlage auf beiden Seiten möglichst genau widerspiegeln, um das wirtschaftliche Risiko für Cargonexx zu minimieren. In dem Vortrag werden Alwin Haensel und Andreas Karanas vor allem auf die Herausforderungen dieser Aufgabe eingehen und Lösungsansätze dazu vorstellen. Um dieses stochastische Problem zu lösen, werden Fuzzyfizierungen der Beobachtungen und maschinellen Lerntechniken verwendet, um empirische Wahrscheinlichkeitsverteilungen aufzubauen. Dabei liegt der Fokus auf allgemeineren ML-Anwendung, die auch für ähnliche Business Cases mit zugrunde liegenden stochastischen Optimierungsproblemen gelten, wo Wahrscheinlichkeitsverteilungen aus grossen Datenmengen extrahiert werden müssen, um optimale Kontrollmaßnahmen unter Unsicherheit abzuleiten.
- Wie führt Kundenorientierung zu maximalem Ertrag?
- Praktisches Beispiel von der Datengenerierung bis zur Entscheidungsfindung
- Am Ende des Prozesses steht konsequente Kundenorientierung und somit der größtmögliche Erfolg
Wie führt Kundenorientierung zu maximalem Ertrag? Das praktische Anwendungsbeispiel behandelt zunächst die Anbindung aller relevanten Datenquellen, die Datenintegration und die intelligente Datenverdichtung (Big Data -> Smart Data). Darauf aufbauend wird beschrieben, wie sich Data-Mining- und KI-Verfahren zur Prognose von kundenindividuellen Potenzialen und Risiken sowie zur Einschätzung von Ursachen und Beweggründen nutzen lassen. Diese Prognosen fließen in ein Bewertungsmodul ein, das zum einen Potenziale und Kosten/Risiken gegenüberstellt sowie die gewünschte Zielgröße (z.B. den Ertrag) optimiert. Auf Basis dieses analytischen Moduls wird die bestmögliche Entscheidung abgeleitet und diejenige Aktion ausgelöst, die durch ihre konsequente Kundenorientierung den größten Erfolg verspricht.
- Einsatz von Business Intelligence (BI) und PA für anstehende Wahlkämpfe
- Entwicklung von PA und BI im Kontext heterogener Daten und begrenzter Ressourcen
- Eingesetzte Verfahren des maschinellen Lernens, Evaluation der Vorhersage, finales Reporting
Der Einsatz von Predictive Analytics (PA) in amerikanischen Präsidentschaftswahlkämpfen seit 2008 verdeutlicht den Nutzen, den PA für politische Kampagnen haben kann. Längst ist das Thema auch bei deutschen Parteien angekommen. So optimiert die SPD mit dem Einsatz von Business Intelligence (BI) und PA anstehende Wahlkämpfe und begegnet dabei Herausforderungen, die sich in Deutschland gegenüber den USA ergeben: heterogenere Datenquellen, kleinere Datenmengen, strikterer Datenschutz und kleinere Budgets. Wir stellen den Aufbau und die Funktionsweise der Analysearchitektur der SPD exemplarisch anhand von Wahlprognosen auf Wahlkreisebene dar. Dabei diskutieren wir auch eingesetzte Verfahren des maschinellen Lernens, die Evaluation der Vorhersage sowie das finale Reporting. Der Vortrag bietet damit einen umfassenden Einblick in die Entwicklung von PA und BI im Kontext heterogener Daten und begrenzter Ressourcen.
Track 1 - Case Study
- Nutzung von Wahlprognosen und historische Daten um mithilfe von Predictive Analytics konkrete Wahrscheinlichkeitsaussagen zu treffen
- Vorstellung der Prognose und der zugrundeliegenden Methodik
- Rückblickende Evaluierung der Prognose
„Bekommt Rot-Rot-Grün eine Mehrheit im Bundestag?“, „Bleibt Angela Merkel Bundeskanzlerin?“ oder „Wird die AfD die drittstärkste Partei?“. Diese und weitere Fragen tauch(t)en im Vorfeld der Bundestagswahl 2017 auf. Konventionelle Wahlprognosen der Wahlforschungsinstitute liefern jedoch keine Antwort darauf mit welcher Wahrscheinlichkeit solche Ereignisse eintreffen werden, sondern nur eine Stimmanteil-Prognose für die Sonntagsfrage, eine imaginäre Bundestagswahl am nächsten Sonntag.Wir nutzen die verfügbaren Wahlprognosen und historische Daten um mithilfe von Predictive Analytics konkrete Wahrscheinlichkeitsaussagen über oben aufgeführte Fragen zu treffen. Nate Silver, Buchautor und Statistiker, hat es für die US-Präsidentschaftswahlen in seinem Blog „FiveThirtyEight“ vorgemacht. Seit März 2017 bietet INWT Statistics eine methodisch vergleichbare und wöchentlich aktualisierte Wahlprognose für die Bundestagswahlen an. Neben der Vorstellung der Prognose und der zugrundeliegenden Methodik, wird die Gelegenheit genutzt unsere Prognosen rückblickend zu evaluieren.
- Very often, classical ARIMA-like models are used for time series forecasting.
- As of 2017, deep learning is being applied everywhere around us. How well does it work for time series forecasting?
- Not so new, but seldom used: dynamic linear models (e.g., the famous Kalman filter). How does that stack up against LSTM & ARIMA?
- All demos will be available to the participants as R notebooks to play with
Time series data are everywhere: In finance, accounting, sales, IoT (sensor data), operations, production, marketing, economy, ecology … even in our daily lives, where we might measure series of daily calory intake, daily energy consumed, work productivity over the day… and what not. Given the past data, how can we forecast the future? In this session, after a quick look at the classics (random walks, ARMA and ARIMA models) we'll dive into two lesser known but extremely interesting alternatives: Bayesian dynamic linear models (including the famous Kalman filter) and the deep learning approach to sequence modeling, recurrent neural networks (mainly the LSTM). All demos will be available to the participants as R notebooks to play with.
- Die Predictive Modelling Factory (PMF) ist eine Plattform zur Automatisierung und Unterstützung des gesamten Data-Science-Prozess
- In dieser Session werden Anforderungen und Bausteine einer PMF vorgestellt
- Beispiel aus der Praxis anhand der EOS Solution
Bei einer Predictive Modelling Factory (PMF) handelt es sich um eine Plattform, die den gesamten Data-Science-Prozess unterstützt und so weit wie möglich automatisiert. Schwerpunkte sind einfache Datenversorgung und Modellentwicklung, Training und Modelloptimierung im Rechencluster, das automatisierte Deployment von Prognosediensten sowie die kontinuierliche Überwachung im Betrieb.
Im Rahmen dieses Vortrages stellen wir die allgemeinen Anforderungen und Bausteine einer PMF vor. Wir zeigen die Architektur und praktische Umsetzung am Beispiel unseres Kunden EOS Solutions. EOS optimiert und automatisiert den Inkassoprozess mit dieser Lösung. Als generische Variante wird die Cloud-fähige Alternative der Informationsfabrik vorgestellt.
Anhand von Kriterien wie Skalierbarkeit, Echtzeitfähigkeit und Integrationsfähigkeit werden wir die Möglichkeiten der Lösungen aufzeigen und über Erfahrungen der Umsetzung berichten.
- Complex offers are often not clear to users
- Highlight the right features to connect with users emotionally
- Segment and personalize offers
Complex offers usually consist of many different benefits. And it is precisely this diversity that often makes the offer difficult for users to understand. Especially in terms of what they actually get and whether it includes the benefits relevant to them. The challenge here is to highlight the right features to connect with users emotionally. And then based on this, to segment and personalize the offer. In this session, Stephanie Peterson shows how Runtastic mastered this challenge. The Premium offer is very complex and segmented into benefit clusters based on user intent. A special offer was put together for each of these clusters, which ultimately led to a significant uplift in Premium subscriptions.
- Interactive Q&A session with guided discussion
- Topics like PWA’s, Android Instant Apps, AMP, voice search, ASO, Digital Assistants, Chat Bots, Google Home & Google Assistant
- What is your top topic, that needs to be on the agenda?
The mobile channel is evolving so quickly, and in so many different ways that it is hard for anyone to keep up with all the new technology and Best Practices. This will be an interactive Q&A session with guided discussion on some of the hottest topics in digital marketing. Use this unique opportunity to ask and discuss your questions with two of the most renowned expert in mobile marketing worldwide: Cindy Krum will lead a collaborative conversation about your topics and questions, like: PWA’s, Android Instant Apps, AMP, voice search, ASO, Digital Assistants, Chat Bots, Google Home & Google Assistant, and how all of these things can work with your existing websites and apps. These are the things that could make the most impact on future bottom-line business decisions, and you need to be thinking about them now. What is your top topic, that needs to be on the agenda? Submit your proposal now under (NB: only registered attendees can submit their questions and topics, not all proposals will be discussed in the session).
- Entwicklung neuer Formate und Contents für digitale Kanäle
- Analoger Prozess wird datengetrieben beschleunigt, optimiert und automatisiert
- Implementierung eines innovativen Content-Lifecycle Prozesse
Das Ziel ist klar: Heute schon wissen, was die Zuschauer morgen sehen möchten. Die ProSiebenSat.1 Media SE nutzt die Möglichkeiten der Digitalisierung, um bei der Entwicklung neuer Formate und Contents für die digitale Kanäle neue Wege zu gehen. Der bis dato analoge Prozess von der Erstellung bis zur Vermarktung von Video-Content wird datengetrieben beschleunigt, optimiert und automatisiert. Marvin Graf von Wilamowitz-Moellendorff und Alexander Schubert zeigen an dem Beispiel von ProSiebenSat1 welche Projekterfahrungen bei der Implementierung eines innovativen Content-Lifecycle Prozesses gesammelt werden konnten.
- Web Tracking: Make or Buy?
- Unternehmenskultur und Reife
- 2 Jahre Erfahrungen bei chefkoch.de in 45 Minuten
Wir lernen aus Fehlern. Dieser Vortrag resümiert den bisherigen Weg von Chefkoch.de auf der Suche nach dem eigenen Webanalytics-Rezept. Lukas Grebe zeigt auf, was schmerzhaft erlernt werden musste und wie die Reise weiter geht, denn es kommt ganz anders als noch 2015 auf der eMetrics vorgestellt. Die Fokus Themen sind: „Unternehmenskultur und Reife“, „Make or Buy?“, „Welche Technologien eignen sich für eigenes Tracking?
- Menschen nutzen Websites in bestimmten Situationen
- Website, Inhalte und User-Experience muss auf relevante Kontexte abgestimmt sein
- Wege aus dem Kontext-/Content
Bei der Nutzung Ihrer mobilen Website kann sich Ihre Zielgruppe in so vielen verschiedenen Situationen befinden, dass es sich lohnt, einmal darüber nachzudenken, welche das eigentlich sind und welchen Einfluss sie auf die Erreichung Ihrer Ziele haben. André Goldmann erläutert in dieser Session, warum Menschen Websites in bestimmten Situationen nutzen. Lernen Sie Hebel und Methoden zur Abstimmung Ihrer Website, Ihrer Inhalte und Ihrer User-Experience auf relevante Kontexte kennen. Erfahren Sie den Unterschied zwischen sinnvoller Nutzung, Ablenkung sowie sofortiger Bedürfnisbefriedigung und wie Sie das Kontext-/Content-Dilemma auflösen.
- Predictive Targeting for medium size companies
- Case study French tire dealer Allopneus
- Calculation of customer purchasing probability
Do you need an enormous amount of data and complex configurations to benefit from the huge growth potential of predictive targeting? No is the answer! In this session the French tire online market leader Allopneus will show how a medium size company can successfully use predictive targeting. By calculating the purchasing probability of each customer, Allopneus has found completely new ways of approaching customers, which has resulted in substantial and also sustainable growth.
Track 2:
The goal of most businesses is to provide one holistic user experience for its’ customers, yet the bridge between online and offline conversions is often overseen. Online optimization is not just about whether the users clicks on the CTA or not, but about setting and managing the expectations to nurture a sustainable longterm relationship between your customer and brand. Unless you are a dealer, selling your car is a big deal so in an industry characterised by multi-step conversion, optimizing our pages for getting a user from A->Z without frustrating surprises has become essential for survival. In this talk Maria will guide you through the process she runs at Auto1 to ensure that each online conversion sets, meets and exceeds customers expectations to ultimately translate into high value offline sales.
- How to use data in engaging and exciting ways to approach on an emotional level
- Overview of the world of data-driven art installations
- Process behind onformatives media installations for clients such as IBM, Dolby and Klarna
When visualizing data, the focus often lies on gaining knowledge and clarifying information. Alternatively, data can be used in engaging and exciting ways to approach the public on an emotional level. Cedric Kiefer, from Berlin-based digital art and design studio onformative, will discuss the possibilities that lie at the intersection of art, design and data. Examples will be shown of creative data analysis in the form of beautiful data-driven illustrations and digital data sculptures. Kiefer will give an overview of the world of data-driven art installations through background knowledge and will share the process behind some of onformative’s latest data-driven media installations for clients such as IBM, Dolby and Klarna.
- Neuerungen der Datenschutzgrundverordnung
- Sicherstellung der Compliance in Unternehmen, Agenturen und Online Marketing Dienstleistern
- Hinweise zur Ausgestaltung eines DSGVO-Projekts
Im Mai 2018 wird die Datenschutzgrundverordnung in der gesamten Europäischen Union wirksam. In vielen Unternehmen laufen deshalb DSGVO-Projekte, die für Compliance sorgen sollen. Betroffen sind letztlich alle Unternehmen. In besonderem Maße trifft das auf Agenturen und Online-Marketing-.Dienstleister zu. Viele Anbieter bekommen schon jetzt Fragen ihrer Kunden zur Umsetzung der DSGVO. Der Vortrag stellt in aller Kürze die wesentlichen Neuerungen vor und gibt anschließend konkrete Hinweise zur Ausgestaltung eines DSGVO-Projekts
- Quality of service (QoS) in cloud-computing is sensitive to the memory cache replacement policy in the compute host it is utilizing
- How feature engineering of new scores, characterizing different types of traffic flows in virtual switch may improve the network performance
- 10% latency reduction and up to 46% throughput improvement in a cloud networking QoS use case example
Network switch resembles in many ways to traffic signs in a junction, telling the vehicles where to turn to in order to reach a specific destination. Open virtual switch (OVS) is a piece of software that emulates a network switch. It is powerful in that it enables software defined networking (SDN) applications - much more dynamic and flexible compared to traditional networking. However, as a software-based solution, the OVS performance is sensitive to the memory cache optimization in the compute host it is utilizing. Dr. Gruber will show via an illustrative example of cloud networking how a feature engineering of new scores improves the network performance of the OVS, in particular latency reduction of 10% and throughput improvement of up to 46%.
Track 1 - Case Study
- How one of the largest logistics company in the Middle East automated the delivery of shipments using machine learning
- No postcodes in the region, instead customers need to give a description of the address
- How GPS was used to predict the delivery location using clustering and classification algorithms
This presentation will give an insight into how we helped one of the largest logistics company in the Middle East to automate the delivery of their shipments using machine learning. The problem was particularly interesting because there are no postcodes in the region. Instead our client would have to make a phone call to each customer and get a description of the address instead, e.g. house with brown door around XYZ roundabout. This process became more difficult because of the cultural dynamics existing amongst the demographics.
This presentation will describe how we leveraged the GPS data the client had to predict the delivery location using clustering and classification algorithms and how we operationalised the model in order to drive actions in real time.
- Können wir messen was eine Gesellschaft denkt?
- Ja! Mit Text Mining und Natural Language processing (NLP) können Aussagen über das Denken und Verhalten ganzer Nationen und Kundengruppen getroffen werden
- Illustration der Ergebnisse anhand von Anwendungsbeispiel u.a. Strategische Markenpositionierung, Kundenzufriedenheit
Können wir messen was eine Gesellschaft denkt? Mit kognitiven Psychologischen Tests ist das teilweise möglich. Um aber unterbewusstes Gedankengut und irrationales Verhalten ganzer Nationen vorherzusagen, dafür gibt es noch keinen Test. Bis jetzt.
In diesem Deep Dive wird erlernt, wie man mit Text Mining und Natural Language processing (NLP) valide Aussagen über das Denken und Verhalten ganzer Nationen und Kundengruppen treffen kann. Zuerst erhalten Teilnehmer eine kurze Einführung in die Grundzüge menschlicher Informationsverarbeitung. Danach werden "hands-on" Modelle berechnet, auf Basis nationaler Text Datenbanken. Diese Modelle werden gemeinsam visualisiert, um Aufschluss zu geben über verschiedene Menschliche (Vor)urteile. Z.b. Warum wir Musikinstrumente anziehender finden als Waffen oder warum wir bestimmte Berufe eher mit Frauen assoziieren als andere.
Die Tragweite der erlernten Analysemethode wird gemeinsam besprochen und praktische Geschäfts-relevante Anwendungsbeispiele gezeigt. Z.b. Strategische Markenpositionierung, Meinungsforschung und Manipulation, Kundenzufriedenheit und Loyalitätsmanagement etc.
- Um AI zu vertrauen, müssen black-box Modell Entscheidungen leichter nachvollziehbar sein
- In dieser Session wird ein Ansatz zur Verbesserung der Lesbarkeit von black-box Modell Entscheidungen vorgestellt
- Am Beispiel das Python Pakets 'lime' wird ein Modell agnostischer Ansatz gezeigt, mit dem die Transparenz erhöht werden kann
Neuronale Netzwerke sind in allen Bereichen der künstlichen Intelligenz angekommen. Bevor wir Ihnen allerdings bei wichtigen Entscheidungen vertrauen, müssen wir verstehen, wie sie zu diesen gelangten. Bei Klassifizierungsproblemen wird die höchste Genauigkeit von black black Modellen wie neural networks oder random forrests erreicht. Am anderen Ende des Spektrums der Genauigkeit gibt es Modelle, deren Vorhersagen zwar leicht verständlich sind, die in ihrer Vorhersagefähigkeit aber meist sehr schlecht oder unflexibel sind. Es wäre schön einfach lesbare Erklärungen dafür zu haben wie solche back-box Modelle ihre Entscheidungen fällen. Am Beispiel das Python Pakets 'lime' wird ein Modell agnostischer Ansatz gezeigt, mit dem black boxen hinsichtlich ihrer Entscheidungen transparenter gemacht werden können. Es wird eine iPhone App gezeigt, mit der man deep neural networks 'on the fly' neu trainieren kann und der white box AI Ansatz von lime wird grafisch als Bild overlay illustriert.
- 3D Data Room
- Data Visualization
- Live Demo
When Virtual Reality is mentioned, we usually think of gaming. Being almost as much fun as the previous example, we can also look at data in 3D within a virtual reality setting. In this session, a virtual reality headset and a fast graphics card will enable the live demo of a 3D data room with a few examples.
- Konzept der "Cookie Richtlinie"
- Neuregelung des Umgangs mit personenbezogenen Daten in der Online Branche
- Kritische Punkte für die Online Branche"
Die EU-Kommission hat am 01.01.2017 einen Entwurf für eine neue ePrivacy-Verordnung vorgestellt. Die Überarbeitung der auch als „Cookie-Richtlinie“ bekannten Regelungen dient vorrangig dem Ziel, die Vertraulichkeit in der elektronischen Kommunikation sicherzustellen. Trotz der nach jahrelangem Ringen nun in Kraft getretenen und ab 25.05.2018 europaweit für analoge und digitale Daten einheitlich geltenden EU-Datenschutzgrundverordnung sollen aber auch weiterhin – nun erheblich verschärfte - Cookie-Vorgaben gelten. Die ePrivacy-Verordnung (ePV) soll hier im Sinne einer Spezialregelung den Umgang mit personenbezogenen Daten auch im Online-Bereich regeln. Sie soll ohne Übergangsfrist zusammen mit der Datenschutzgrundverordnung am 25.05.2018 in Kraft treten. Der Vortrag beleuchtet das Konzept des Entwurfs und gibt einen Ausblick auf die potentiell kritischen Punkte für die Online-Branche.
- Umsetzbare Ratschläge von Top-Experten
- Lassen Sie Ihre Test Hypothesen überprüfen
- Angemeldete Teilnehmer können Vorschläge einreichen
Die Zeit ist investiert, die Tools sind gekauft und die AB Tests laufen – aber es funktioniert nicht. Warum? In dieser Session holen Sie sich nützliche und umsetzbare Ratschläge von Experten, die bereits so lange im Geschäft sind, dass ihnen wirklich alle Fehler schon einmal passiert sind. Und genau deshalb können sie auch die besten Tipps geben! Unsere Referenten haben Tests mit Hunderten von Millionen Nutzern durchgeführt und legen Ihre Test (und wie Sie diese durchführen) gerne unter das Mikroskop. Lassen Sie Ihre Test Hypothesen überprüfen, finden Sie Fehler, passen sie die Hypothesen an oder werfen Sie diese komplett über den Haufen... Alles was Sie tun müssen ist, Ihren Test zur Kritik einzureichen. Es gibt kaum einen besseren Weg Best Practices für Testing Methoden von den führenden Experten zu erhalten. Diese umsetzbare, aber auch unterhaltsame Session sollten Sie nicht verpassen. Bitte schicken Sie uns mindestens zwei Screenshots Ihrer Test (oder zwei Links) zu damit unserer Referenten sich vorbereiten können. Email: . NB nur angemeldete Teilnehmer können Vorschläge einreichen.
- Unterhaltsame und überraschende Einblicke in das Verhalten des vielleicht größten Meinungsmachers Deutschlands
- Gesellschaftliche Aspekte der DataScience
Seit Mitte 2014 hat David fast 100.000 Artikel von Spiegel Online systematisch gespeichert.
Zum einen gelingt dadurch Reverse Engineering von Spiegel Online: Der Datensatz wird auseinander genommen und Spiegel Online aus vielen völlig neuen Blickwinkeln betrachtet. Das Ganze wird bunt, unterhaltsam und anschaulich, so dass sowohl Techies als auch Nicht-Techies profitieren. Warum sind manche Artikel lang, manche kurz? Kann man Artikeln ansehen, ob die Redakteure wirklich dahinter stehen oder nicht? Welche Redakteure sind enger miteinander verbandelt als andere? Welche Inhalte hält der Spiegel selbst für politisch inkorrekt?
Zum anderen gibt David zum Konferenzabschluss einen Überblick darüber, was Data Science für ihn bedeutet und über die gesellschaftlichen Implikationen, die sich aus dem Hype ergeben - zum Nachdenken und meditieren. Nicht nur die Vorgehensweise, sondern auch die Möglichkeiten und gesellschaftlichen Gefahren der Datensammelwut und Auswerterei werden betrachtet und das anhand bunter Grafiken anstatt von Formeln.