004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Research Paper (14)
- Diplomarbeit (10)
- Teil eines Buches (Kapitel) (9)
- Beitrag in Konferenzband (4)
- Bachelorarbeit (2)
- Wissenschaftlicher Artikel (1)
- Dissertation (1)
- Habilitation (1)
- Bericht (1)
- Arbeitspapier (1)
Volltext vorhanden
- ja (44) (entfernen)
Schlagworte
- Informatik (16)
- Kultur (14)
- Computer (7)
- Medium (4)
- Wirtschaftsinformatik (4)
- Ebstorfer Weltkarte (3)
- Virtualität (3)
- Angewandte Mathematik (2)
- Berechenbarkeit (2)
- Buch (2)
Maximizing the value from data has become a key challenge for companies as it helps improve operations and decision making, enhances products and services, and, ultimately, leads to new business models. While enterprise architecture (EA) management and modeling have proven their value for IT-related projects, the support of enterprise architecture for data-driven business models (DDBMs) is a rather new and unexplored field. The research group argues that the current understanding of the intersection of data-driven business model innovation and enterprise architecture is incomplete because of five challenges that have not been addressed in existing research: (1) lack of knowledge of how companies design and realize data-driven business models from a process perspective, (2) lack of knowledge on the implementation phase of data-driven business models, (3) lack of knowledge on the potential support enterprise architecture modeling and management can provide to data-driven business model endeavors, (4) lack of knowledge on how enterprise architecture modeling and management support data-driven business model design and realization in practice, (5) lack of knowledge on how to deploy data-driven business models. The researchers address these challenges by examining how enterprise architecture modeling and management can benefit data-driven business model innovation. The mixed-method approach of this thesis draws on a systematic literature review, qualitative empirical research as well as the design science research paradigm. The investigators conducted a systematic literature search on data-driven business models and enterprise architecture. Considering the novelty of data-driven business models for academia and practice, they conducted explorative qualitative research to explain "why" and "how" companies embark on realizing data-driven business models. Throughout these studies, the primary data source was semi-structured interviews. In order to provide an artifact for DDBM innovation, the researchers developed a theory for design and action. The data-driven business model innovation artifact was inductively developed in two design iterations based on the design science paradigm and the design science research framework.
Auf Grund der stetig wachsenden Menge an Daten gewinnt die automatische Datenanalyse durch Algorithmen zunehmend an Bedeutung. Im Speziellen trägt die Analyse von Texten ohne manuelles Zutun zu einer erheblichen Erleichterung der Extraktion von relevanten Informationen bei. Sprachliche Informationen können neben der Zuordnung zu Kategorien auf Regeln und Muster untersucht werden. Diese Art der Untersuchung fällt in den Bereich des Text Minings, und in der vorliegenden Arbeit geht es darum, eine qualitative Inhaltsanalyse zum Thema Nachhaltigkeit nachzuempfinden. Es soll geprüft werden, in wie weit automatisierte Verfahren in der Lage sind, Ergebnisse einer bereits bestehenden Untersuchung zu erzielen. In der Durchführung werden mit der Open Source-Software RapidMiner vier Prozesse erstellt, die darauf abzielen, Zeitungsartikel auf ihren Inhalt zu analysieren. Unter anderem werden eine Assoziationsanalyse und eine Klassifikation realisiert, deren Ziel es ist, den Kontext und die Verwendung des Begriffes der Nachhaltigkeit in den Medien zu untersuchen. Die vorliegende Studie will prüfen, ob automatisierten Methoden im Vergleich zu manuellen Verfahren hinreichende Ergebnisse liefern können, sodass die hiesigen Resultate an denen der zu Grunde gelegten Studie von Fischer und Haucke gemessen werden sollen. Die Ergebnisse zeigen, dass die Realisierung einer Inhaltsanalyse mit RapidMiner möglich ist und zu erheblichen Zeiteinsparungen gegenüber konventionellen Verfahren führt. Sie zeigen jedoch auch, dass sich die Minderung des Aufwandes in der Ergebnisqualität widerspiegelt und somit der alleinige Einsatz von Text Mining Verfahren zur Analyse von spezifischen Kontexten noch nicht ausreichend ist.
Die in dieser Sammlung zusammengetragenen Texte reicht der Autor als kumulative Habilitationsleistung bei der Fakultät »Umwelt und Technik« der Leuphana Universität Lüneburg zum Zwecke des Erwerbs der Lehrbefugnis für die Fachrichtung »Informatik/Digitale Medien« ein. Die Texte sind alle in den letzten zehn Jahren veröffentlicht worden, meist im Druck, einige online. Als Einzelveröffentlichungen behandeln sie jeweils separate Themen, deshalb werden ihr Ursprung, der Gesamtzusammenhang und die daraus entwickelbaren Perspektiven für Forschung und Lehre an der Leuphana Universität Lüneburg im Folgenden umrissen.
In dieser Diplomarbeit ist die Entwicklung eines Software-Tools zur Erzeugung von Datenpunkten in einem Prozessvisualisierungssystem beschrieben. Die Software beschränkt sich zum einen auf die iFIX TM als Visualisierungssoftware und zum anderen auf Visual Basic for Application als Programmiersprache. Mit Hilfe von diesem Tool werden alle nötigen Tags sowohl in der Datenbank als auch im OPC-Client von iFIX TM erzeugt. Die Erzeugung dieser Tags ist auf die Standardelemente begrenzt. Die Erstellung dieser Verknüpfungen soll mit möglichst wenig Wissen über die Anlage selbst und über den vor Ort herrschenden Standard erfolgen. Zusätzlich soll die Bedienung des Tools intuitiv und praxisnah sein. Die entwickelte Anwendung soll in den von der GEA TBS gebauten Anlage eingesetzt werden, um dem Anwender des Programms das Verknüpfen von neuen Bauteilen in einem bestehenden Prozessvisualisierungssystems zu erleichtern und dadurch Entwicklungszeit zu sparen.
Kultur.Informatik WS 0304
(2000)
Zweifellos gibt es fruchtbare Blickwinkel, unter denen Computermedien im Prozeß einer Sinnproduktion zu betrachten sind. Gerade wegen ihrer semantischen Enthaltsamkeit nämlich – zu der noch mehr und Weiteres zu sagen sein wird – wegen ihrer semantischen Abstinenz also sind Computer überaus wirksam bei der Errichtung symbolischer Ordnungen, treten sie als Apparate und Medien bei der Errichtung von Wissensordnungen in Erscheinung, die ohne sie nicht existieren würden.
Kultur.Informatik
(2004)
Wie viele andere Anregungen, so ist auch das Thema »Zeitpfeil« im Gespräch mit Claus Pias entstanden. Irgendwie sind wir auf das Thema gestoßen, inwieweit und ob Computer Maschinen mit Geschichte sind, ob reversibel oder nicht. Meine Physiker-Antwort, dass sie natürlich nicht-reversibel sind, weil sie bei der Arbeit warm werden, also Energie dissipieren, hat mich dann selbst nicht befriedigt, und so kam es, danach zu fragen, welche Arten von Entwicklung, welche Gesetzmäßigkeiten oder Zufälligkeiten benennbar sind, die der digitalen Informationstechnik einen Zeitpfeil, ein Jetzt, Zuvor und ein Danach geben.
Vor und nach dem Buch
(2006)
Die Arbeit, von der die Rede sein soll, ist keine historische und keine philologische, sondern eine mediale. Wir haben vor vielen Jahren eine mediale Transformation an der Großen Ebstorferin vorgenommen, eine vom Pergament auf den Computerbildschirm, und dabei eine Zeitspanne der Medientechnik von 700 Jahren überbrückt, dabei die Ära des Buches übersprungen, die so stark unsere heutige Kultur geprägt, vielleicht besser: hervorgebracht, hat.
Interaktivität stellt fürr Virtualität eine notwendige Bedingung dar, denn zur subjektiven Konstruktion einer Realitätt aus computererzeugten Sinnesdaten muss sich die Feedback-Schleife aus Handlung, Wahrnehmung und darauf reagierender erneuter Handlung eng schließen. Der Text beleuchtet aus Sicht der Kulturinformatik die technikgeschichtlichen und kunsttheoretischen Zusammenhänge zweier Begriffe, die zentral sind für den Diskurs um und die Verortung von interaktiver Computerkunst.
Size does matter
(1999)
Die schiere Quantität ist hier von zentralem Belang – als würde Engels’ ›Dialektik der Natur‹ wieder ihr Haupt aus dem gewiß geglaubten Grabe erheben und erneut fröhlich Quantität in Qualität umschlagen lassen. Es geht um obere und untere Grenzen von Informationsclustern, um die Frage also auch, ob dem Immer-Mehr nicht doch irgendwelche Grenzen gesetzt sind.