004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Research Paper (14)
- Diplomarbeit (10)
- Teil eines Buches (Kapitel) (9)
- Wissenschaftlicher Artikel (8)
- Beitrag in Konferenzband (5)
- Buch (Monographie) (3)
- Bachelorarbeit (2)
- Dissertation (1)
- Habilitation (1)
- Bericht (1)
Schlagworte
- Informatik (16)
- Kultur (14)
- Computer (7)
- Wirtschaftsinformatik (5)
- Medium (4)
- Ebstorfer Weltkarte (3)
- Neue Medien (3)
- Programmierung (3)
- Rechtsanwalt (3)
- Virtualität (3)
- Angewandte Mathematik (2)
- Berechenbarkeit (2)
- Buch (2)
- Interaktivität (2)
- Internet (2)
- Java (2)
- Kontingenz (2)
- Management (2)
- Software Engineering (2)
- Systemanalyse (2)
- Web log (2)
- Wiki (2)
- Analog (1)
- Analysis (1)
- Animation (1)
- Archiv (1)
- Art (1)
- Atlas (1)
- Automatisierungstechnik (1)
- Autopoiesis (1)
- Bericht (1)
- Bild (1)
- Bildwissenschaften (1)
- Blended Leading (1)
- Computer Science (1)
- Computer-Supported Cooperative Work (CSCW) (1)
- Computerkunst (1)
- Computerspiel (1)
- Cyberspace (1)
- Data Analysis (1)
- Data Mining (1)
- Datenanalyse (1)
- Datenmodell (1)
- Datenverarbeitung (1)
- Digital (1)
- Digital Communities (1)
- Document Type Definition (1)
- Dokumentenmanagementsystem (1)
- E-Leading (1)
- Echtzeitsystem (1)
- Elektronische Medien (1)
- Emergency Computing (1)
- Emergenz (1)
- Entity-Relationship-Datenmodell (1)
- Erste Hilfe (1)
- Ethernet (1)
- Film (1)
- Führung (1)
- Gamification (1)
- Glenn Gould (1)
- Google (1)
- Handbuchliteratur (1)
- Haustechnik (1)
- Informatics (1)
- Informationseinheit (1)
- Informationstheorie (1)
- Informationsästhetik (1)
- Innovationsmanagement (1)
- Jurist (1)
- Kino (1)
- Kommunikation (1)
- Kulturwissenschaften (1)
- Kunst (1)
- Kunstwerk (1)
- Künstliche Intelligenz (1)
- LINUX (1)
- Landkarte (1)
- Mandant (1)
- Maschine (1)
- Materialität (1)
- Mathematische Funktion (1)
- Medienkunst (1)
- Mensch (1)
- Mimesis (1)
- Miniaturisierung (1)
- Motivation (1)
- Nachhaltigkeit (1)
- Nanotechnologie (1)
- Netzwerkverwaltung (1)
- OWL <Programmiersprache> (1)
- Objektorientierte Programmierung (1)
- Ontologie (1)
- PeTAL (1)
- PostScript (1)
- Produktion (1)
- Qualität (1)
- Quantenphysik (1)
- Quantität (1)
- Raum (1)
- Reality (1)
- Rechtsberatung (1)
- Software (1)
- Softwareentwicklung (1)
- Suchmaschine (1)
- Sustainability (1)
- Synthese (1)
- Text Mining (1)
- Turing (1)
- Virtuality (1)
- Visualisierung (1)
- World Wide Web 2.0 (1)
- XML-Standard (1)
- digital media (1)
- interaktive Kunst (1)
- technische Reproduzierbarkeit (1)
- virtual (1)
Institut
- Frühere Fachbereiche (39)
- Informatik/Wirtschaftsinformatik (11)
- Automatisierungstechnik/Wirtschafts.-Ing. (1)
- Fakultät Kulturwissenschaften (1)
- Fakultät Nachhaltigkeit (1)
- Fakultät Wirtschaftswissenschaften (1)
- Institut für Kultur und Ästhetik Digitaler Medien (ICAM) (1)
- Institut für Wirtschaftsinformatik (IIS) (1)
Die vorstehenden Ausführungen lassen erkennen, dass ein ungezielter und wahlloser Einsatz elektronischer Medien im Kanzleialltag kontraproduktiv wirken kann. Dies gilt insbesondere für einen "ungefilterten" Einsatz von eMail. Zu selten wird berücksichtigt, dass mit der planlosen Öffnung neuer Kommunikationskanäle der Organisationsaufwand steigt. Die geplante Entlastung wird schnell zur Belastung. Die direkte Kommunikation zwischen Anwalt und Mandant via eMail ist daher ein zweischneidiges Schwert. Kritisch zu bewerten ist ebenfalls die reine Online-Rechtsberatung. Die mit dem Einsatz dieser Systeme verbundene Hoffnung auf den schnellen Gebühren-Euro ist oftmals vergebens. Zu häufig wird übersehen, dass anwaltliche Beratung nach wie vor vom persönlichen Kontakt lebt. Als Insellösung ist die Online-Rechtsberatung daher ungeeignet. Aus Effizienzgesichtspunkten bringt sie in ihrer bisherigen Form keinerlei Vorteile. Das Scheitern der meisten sogenannten Start-ups der New Economy hat gezeigt, dass der Markt für reine Internetlösungen, insbesondere im Beratungsbereich, noch nicht bereit ist. Von der "Virtualisierung anwaltlicher Dienstleistung" sind wir, nicht zuletzt aus kulturellen Gründen, noch ein gutes Stück entfernt. Es gilt vielmehr, durch den Einsatz elektronischer Medien bereits bestehende Prozesse zu optimieren und die Arbeitsabläufe im Kanzleialltag effizienter zu gestalten. Die Zukunft wird daher den Systemen gehören, die eine Kommunikation zwischen Anwalt und Mandant ohne nennenswerte Medienbrüche aufbauen. Dies gilt zunächst für den Austausch fernmündlicher und/oder schriftlicher Informationen. Ein Schwerpunkt wird daher in der Fortentwicklung datenbankbasierter Lösungen liegen, auf die über einen Web-Browser zugegriffen werden kann. Dabei wird die Integration von Spracherkennung eine dominante Rolle spielen. Ein erhebliches Effizienzpotential liegt jedoch in der oft aufwändigen Sachverhaltsermittlung. Hier können künftig "intelligente Formulare" oder Fragemasken zur Ermittlung des Sachverhaltes helfen. Nur so ist wirkliche Arbeitsentlastung denkbar - vorausgesetzt die gewonnenen Ergebnisse werden in eine elektronische Akte integriert und dem Anwalt verfügbar gemacht.
Die Veröffentlichung dokumentiert die Ergebnisse einer Online-Befragung, die die Autoren im Rahmen eines Forschungsprojektes an der Fachhochschule Nordostniedersachsens durchführten. Gegenstand waren u.a. folgende Fragen: Zu welchem Zweck nutzen Mandanten das Internet? Kommunizieren Mandanten und Anwälte via E-Mail? Welche Anforderungen stellen Mandanten an den Internetauftritt von Anwaltskanzleien?
Um im rauer werdenden Wettbewerb bestehen zu können, werden Rechtsanwälte innovative Softwarelösungen benötigen.
Die Krise der Anwaltschaft ist eine hausgemachte strukturelle Krise. Antworten auf die sich im Rahmen dieser Krise stellenden Fragen sind nicht der Ruf nach dem Gesetzgeber oder der Rückzug ins Schneckenhaus "Rechtsberatungsmonopol". Der Weg aus der Krise ist nur über eine kritische Selbstbetrachtung der Anwaltschaft und die konsequente Neuausrichtung an den geänderten Bedürfnissen des Marktes möglich...
Dieser Artikel beschreibt, was das grundlegend Neue an Weblogs und Wikis ist und inwiefern sie die Medienkultur des Internets verändern und bereichern.
Der zweite Teil dieses Artikels beschreibt, welche Einsatzmöglichkeiten diese neuartigen Medien für Unternehmenskommunikation, Projekt- und Wissensmanagement sowie für das E-Learning eröffnen.
Führung auf Distanz wird zunehmend zu einem integralen Bestandteil verteilter Arbeits- und Organisationsformen und stellt Führungskräfte vor neue Herausforderungen. Medienbasiertes E-Leading drängt sich als Lösung auf, doch kann Führung auf Distanz allein schon aus Gründen des Vertrauensaufbaus auf Face-to-Face-Elemente nicht verzichten. Wir schlagen daher einen Paradigmenwechsel vor: vom E-Leading zum Blended Leading!
Professionelle Organisationen für die Hilfe bei Notfällen wie Feuerwehr, Ordnungsbehörden, Polizei, Technisches Hilfswerk etc. verfügen über eine gut geplante IT-Infrastruktur. Die vielen freiwilligen Helfer, die sich spontan bereit erklären, in einem besonderen Notfall mitzuwirken, verfügen üblicherweise nur über Handy und PC mit Internet-Anschluss. Ihre elektronische Integration könnte sich an erprobten Informationskonzepten von Computer-Supported Cooperative Work (CSCW) sowie von Collaborative Information Systems (CIS) orientieren; also im Kern an einer standardisierten Bekanntmachung der individuellen Ressourcen (Mitwirkungsangebote). Analog zum Peer-to-Peer-Konzept wäre ein Minimum an „zentraler Registrierung“ und ein Maximum an „ad-hoc-Bekanntmachung“ anzustreben. In diesem Kontext skizziert der Beitrag einen Lösungsansatz für eine IT-basierte Integration der Selbstorganisation anhand des Sandsackfüllens beim Elbhochwasser 2002.
Das vorliegende Skript dient als Unterlage für die Veranstaltung Mathematik für Wirtschaftsinformatikerinnen und Wirtschaftsinformatiker am Fachbereich Wirtschaft der Universität Lüneburg.
Das vorliegende Skript dient als Unterlage für die Veranstaltung Mathematik für Wirtschaftsinformatikerinnen und Wirtschaftsinformatiker am Fachbereich Wirtschaft. Es enthält Übungen mit Lösungen zu dem Skript "Mathematik für Wirtschaftsinformatiker".
Das vorliegende Skript dient als begleitende Unterlage für die Veranstaltungen Datenstrukturen und Systemnahe Programmierung an der Universität Lüneburg.
Die vorliegende Arbeit beschäftigt sich mit einer Methodik, wissensbasierte Kommunikation in einem verteilten System zu realisieren. Als Szenario dient der Organic Room, ein Raum mit intelligenter Haustechnik, der sich möglichst eingenständig an die Bedürfnisse des Menschen anpasst und sich dabei energieeffizient verhält.
Tätigkeitsbericht WS 2004/2005 - SS 2006 des Lehrstuhls für Produktion und Wirtschaftsinformatik
Systemanalyse für Softwaresysteme ist ein Manuskript zum Selbststudium und zur Begleitung von Lehrveranstaltungen. Es vermittelt eine Einführung in die Systemanalyse in diesem Informatik-Kontext. Systemanalyse wird dargestellt als ein zielorientiertes Vorgehen mit vielfältigen Konkretisierungs- und Abstraktionsaktivitäten. Die Vorgehensweise wird anhand von Beispielen erläutert.
Wie in vielen Hochschulen, so erfolgt auch in der Universität Lüneburg derzeit die Einführung in die Grundlagen der Programmierung (PROG) für Informatiker und Wirtschaftsinformatiker primär auf Basis der Programmiersprache Java. Ziel ist es, programmieren als einen systematischen Konstruktionsvorgang zu vermitteln.
Datenmodelle sind ein zentraler Bestandteil betrieblicher Informationssysteme. In der Praxis eingesetzte Datenmodelle erreichen oft eine erhebliche Komplexität. Eine Möglichkeit zur Reduktion der Komplexität besteht darin, gleiche oder ähnliche Teilstrukturen zu identifizieren. Durch Ausnutzung solcher Strukturanalogien kann dann das Datenmodell vereinheitlicht und vereinfacht werden. Ziel dieses Aufsatzes ist es, die bestehenden Ansätze zur Definition, Identifikation und Ausnutzung von Strukturanalogien in Datenmodellen weiterzuentwickeln.
Die vorliegende Diplomarbeit beschreibt die Entwicklung eines Systems zur verteilten Bearbeitung rechenintensiver Probleme der Firma Analytic Company GmbH. Aufwendige Prozesse sollen dabei parallel auf mehreren Rechnern abgearbeitet werden. Im Ergebnis soll die im Rahmen dieser Arbeit entwickelte Anwendung zu einer schnelleren und flexibleren Abarbeitung rechenintensiver Probleme und besseren Nutzung der bestehenden Infrastruktur der Firma führen.
Das Thema der vorliegende Diplomarbeit enstand im Rahmen von Praxissemestern bei der Firma Rockwell Automation. Sie handelt vom Einsatz und der Bedeutung von Visualisierungssystemen in einer modernen Produktionsumgebung. Es wird das Visualisierungsprogramm RSView SE vorgestellt.
Text zum Ausstellungskatalog von Franz John: Turing Tables.
Das Auffinden von Bildern im Internet ist immer noch an die Sprache als Verweis- und Indizierungsvehikel gebunden. Der Struktur und dem bildimmanenten Aufbau eines Bildes wird dabei keine Bedeutung beigemessen, die treffsichere Beschreibung und Betitelung des Bildes durch den Publizierenden entscheidet über seine Auffindbarkeit im WWW. Dieser Text setzt sich mit derzeitigen Verweisstrukturen des WWW und ihrer Anwendbarkeit auf Bilder auseinander, zeigt Schwächen auf und stellt mit PeTAL ein im Aufbau befindliches System vor, das Abhilfe schaffen könnte.
Beschrieben wird eine bedeutende Karte des hohen Mittelalters, ihre Herkunft, ihr Gehalt, ihre Struktur, einige Aspekte des von ihr verkörperten Weltbildes sowie ihre Dokumentation mit digitalen Medien.
Diese Publikation setzt sich unter dem Leitmotiv der Digitalisierung mit Aspekten der Wissensvermittlung auseinander. In diesem Beitrag ist also zu klären, was Wissen und die Vermittlung des Wissens mit Computertechnik zu tun haben und des weiteren, wie sich das neue Medium Computer in den delikaten Prozeß einmischt, in dem sich Individuen ein Bild von der Welt machen.
Die Paechsche "Figuration der Aufloesung" beschreibt den subkutanen Medienwechsel eines mittelalterlichen Manuskripts von 1239, verdraengt vom Satz mit den beweglichen Lettern eines Johann Gensfleisch zum Gutenberg um 1440 in die Turing-Galaxis der digitalen Medien des zwanzigsten Jahrhunderts. Diese Entwicklung wird hier am Beispiel der Ebstorfer Weltkarte nachvollzogen, die im Digitalen wieder ein adaequates Medium fand.
PeTAL (Picture Text Annotation Language) is proposed as an XML-standard for digital documents containing text, images, and videos with heavy cross-referencing, esp. from clickable parts of images to other parts of the material. A browser capable of interpreting the PeTAL code shown here is under construction.
PeTAL Document Type Definition, Syntaxbeschreibung des XML-Standards zur Annotation von Bildern.
Web 2.0 is a common term in the Internet field nowadays. Web 2.0, which is sometimes also called participation web, already motivates millions of people to contribute. Web 2.0 could also be used to improve enterprise information technology. Therefore the use of Web 2.0 concepts in an enterprise context seems worth considering.
In diesem Text soll es um Computerkultur gehen, die mit den Begriffen Synthese, Mimesis und Emergenz beschrieben wird. Fuer das Kulturprodukt - vielleicht sogar Kulturindustrie-Produkt - Film ist die Zeit guenstig fuer ein solches Unterfangen, denn wir koennen mittlerweile gut zwanzig Jahre ueberblicken, wir koennen bei der technischen Basis des synthetischen fotorealistischen Computergraphik-Bildes beginnen, sind im Moment in der Hochzeit der Animation in voller mimetischer Pracht angelangt, sehen aber auch schon, was an hochgradig vernetztem Geschehen z. B. als massive online role game Emergenzen zeitigt.
Es geht um die Widerstaendigkeit des Bildes, um das Phaenomen des Unvermoegens von Suchmaschinen, Bilder ebenso effizient aus der Flut des online zugaenglichen Materials zu filtern, wie es bei Texten so exzellent funktioniert. Dabei wird die Pointe sein, dass es sich nicht um ein informatisches Problem handelt, eines, das sich mit raffinierteren Algorithmen und schnelleren Computern in den Griff bekommen liesse, sondern, dass es sich um ein kulturell emergentes Phaenomen handelt, also zum dritten Teil der Triade Synthese - Mimesis - Emergenz gehoert.
Cut,-Copy-and-Paste-Verfahren gelten in Kreisen der Hochkultur immer noch als verschrien und trennen "echte" Kunst eindeutig von Nicht-Kunst. Das Werk Glenn Goulds zeigt beispielhaft, dass solche Festschreibungen nicht immer gelten. Nach dem Ende des auratischen Kunstwerks entsteht keine in und durch die Medien neu vergesellschaftete Kunst, sondern ein neuer Mythos. Nach dem Mythos der High Fidelity folgt der Mythos der Produktionstechniken und ihrer Magier, ein Mythos, an dem Gould - neben seinen Kollegen aus der "populaeren Musik", den Beatles, den Beach Boys und ihren Studioingenieuren - als einer der Ersten kraeftig mitstrickt.
"...as a matter of fact, all that is computerized gained such an amount of reality that nothing could be more mistaken than to call the products of the information technology industry 'virtual'."
Turings Maschine ist, wie man weiß, nie gebaut worden, und dies wäre auch nicht möglich. Dennoch und gerade deswegen kann sie als das Vorbild eines jeden Computers gelten, der bislang gebaut wurde oder es je werden wird. Denn sie, Turings Gedanken- oder Papiermaschine, wurde mit Vorbedacht als ein so simpler Mechanismus entworfen, daß an ihrer prinzipiellen Realisierbarkeit und daran, dass sie ohne menschlichen Eingriff zu funktionieren imstande wäre, kein Zweifel bestehen kann.
Wir haben es bei unserem Thema also mit einem Phantasma zu tun, dem der Beseelung, der Unterstellung von Odem, von Atem, bei toter Materie, bei den Maschinen. Und auch der Eindruck, die Maschinen machten sich nach und nach selbständig, und sie hätten so etwas wie Autonomie, ist natürlich nicht von der Hand zu weisen. Niemand könnte mehr behaupten, etwa das Internet noch zu beherrschen, wie man ein Werkzeug beherrscht. Unbeherrschbarkeit ist ja geradezu ein notwendiges Charakteristikum selbstorganisierender Systeme. Aber ist es denn so, dass wir unsere Computersysteme nicht mehr direkt programmieren können, bleibt uns, wie bei Kontrollversuchen an autopoietischen Systemen nur die Handlungsoption, Bedingungen für Möglichkeiten zu schaffen, und sind wir dann zum Zusehen und Abwarten verurteilt, ob manches dann auch so kommt, wie wir es intendieren?
Es ist zu fragen, ob das Neue am Cyberspace tatsächlich eine gänzlich andere Topographie – jenseits der Grenzen des uns bekannten Raumes – oder eine ganz neue Ökonomie sei, die den Gesetzen des Kapitalismus nicht mehr gehorcht, ob im Cyberspace gar Raum, Zeit und Geld verschwänden, welche die neuen Verhältnisse sind, in denen wir ein Leben führen, das zweifellos tatsächlich ein anderes ist als vor Erfindung der weltumspannend vernetzten Digitalcomputer.
Die Funktion des Archivs ist eine unmögliche. Der Aufgabe, die Archivalien zu bewahren, indem man sie vor dem zerstörerischen Zugriff ihrer Nutzer bewahrt, ist unvereinbar mit der Aufgabe, die eingelagerten Materialien allgemein zugänglich zu machen. Digitale Datenhaltung könnte die Lösung des archivarischen Dilemmas sein, sie ermöglicht so gut wie verlustfreies kopieren und vervielfältigen von Daten. Die sich daraus ergebenden Ewigkeits-Vorstellungen zum Digitalen, legen den Schluß von »digital« auf »Archiv« nahe. Es ist allerdings, um die Pointe vorwegzunehmen, ein Kurz-Schluß, ein Phantasma und kein technisches Faktum, um das es hier geht. Das Digitale, wir werden es noch sehen, ist ein archivarischer Albtraum, und zwar aus vielerlei Gründen, die im Folgenden zur Sprache kommen sollen.
Entlang des Schemas aus den Begriffen Synthese, Mimesis und Emergenz, die auch immer als historische Kategorien begriffen werden, indem sie mit Epochen der Computertechnik parallel laufen, längs dieser Triade soll nun die Kunst zur Sprache kommen. Synthetisch ließen sich die frühen Computergraphiken und die stochastisch fundierten musikalischen Stilübungen Lejaren Hillers erzeugen; mimetischen Verfahren der Vor- und Nachahmung kommt man bei der interaktiven Medienkunst auf die Spur; vernetzt lassen sich künstlerische Experimente auf die Emergenzen des Sozialen ein.
Es dauert nicht mehr lange, dann wird es schwer werden, einen Computer zu fassen zu bekommen, geschweige denn, sich seiner mittels Handgreiflichkeiten zu entledigen. Die Autoren des einschlägigen Buchs über das Quantencomputing »The ultimate zero and one«, Colin Williams und Scott Clearwater, drücken das so aus: »Computers are starting to disappear before our very eyes by becoming part of the fabric of our world.«
Die schiere Quantität ist hier von zentralem Belang – als würde Engels’ ›Dialektik der Natur‹ wieder ihr Haupt aus dem gewiß geglaubten Grabe erheben und erneut fröhlich Quantität in Qualität umschlagen lassen. Es geht um obere und untere Grenzen von Informationsclustern, um die Frage also auch, ob dem Immer-Mehr nicht doch irgendwelche Grenzen gesetzt sind.
Interaktivität stellt fürr Virtualität eine notwendige Bedingung dar, denn zur subjektiven Konstruktion einer Realitätt aus computererzeugten Sinnesdaten muss sich die Feedback-Schleife aus Handlung, Wahrnehmung und darauf reagierender erneuter Handlung eng schließen. Der Text beleuchtet aus Sicht der Kulturinformatik die technikgeschichtlichen und kunsttheoretischen Zusammenhänge zweier Begriffe, die zentral sind für den Diskurs um und die Verortung von interaktiver Computerkunst.
Die Arbeit, von der die Rede sein soll, ist keine historische und keine philologische, sondern eine mediale. Wir haben vor vielen Jahren eine mediale Transformation an der Großen Ebstorferin vorgenommen, eine vom Pergament auf den Computerbildschirm, und dabei eine Zeitspanne der Medientechnik von 700 Jahren überbrückt, dabei die Ära des Buches übersprungen, die so stark unsere heutige Kultur geprägt, vielleicht besser: hervorgebracht, hat.
Wie viele andere Anregungen, so ist auch das Thema »Zeitpfeil« im Gespräch mit Claus Pias entstanden. Irgendwie sind wir auf das Thema gestoßen, inwieweit und ob Computer Maschinen mit Geschichte sind, ob reversibel oder nicht. Meine Physiker-Antwort, dass sie natürlich nicht-reversibel sind, weil sie bei der Arbeit warm werden, also Energie dissipieren, hat mich dann selbst nicht befriedigt, und so kam es, danach zu fragen, welche Arten von Entwicklung, welche Gesetzmäßigkeiten oder Zufälligkeiten benennbar sind, die der digitalen Informationstechnik einen Zeitpfeil, ein Jetzt, Zuvor und ein Danach geben.
Zweifellos gibt es fruchtbare Blickwinkel, unter denen Computermedien im Prozeß einer Sinnproduktion zu betrachten sind. Gerade wegen ihrer semantischen Enthaltsamkeit nämlich – zu der noch mehr und Weiteres zu sagen sein wird – wegen ihrer semantischen Abstinenz also sind Computer überaus wirksam bei der Errichtung symbolischer Ordnungen, treten sie als Apparate und Medien bei der Errichtung von Wissensordnungen in Erscheinung, die ohne sie nicht existieren würden.
In dieser Diplomarbeit ist die Entwicklung eines Software-Tools zur Erzeugung von Datenpunkten in einem Prozessvisualisierungssystem beschrieben. Die Software beschränkt sich zum einen auf die iFIX TM als Visualisierungssoftware und zum anderen auf Visual Basic for Application als Programmiersprache. Mit Hilfe von diesem Tool werden alle nötigen Tags sowohl in der Datenbank als auch im OPC-Client von iFIX TM erzeugt. Die Erzeugung dieser Tags ist auf die Standardelemente begrenzt. Die Erstellung dieser Verknüpfungen soll mit möglichst wenig Wissen über die Anlage selbst und über den vor Ort herrschenden Standard erfolgen. Zusätzlich soll die Bedienung des Tools intuitiv und praxisnah sein. Die entwickelte Anwendung soll in den von der GEA TBS gebauten Anlage eingesetzt werden, um dem Anwender des Programms das Verknüpfen von neuen Bauteilen in einem bestehenden Prozessvisualisierungssystems zu erleichtern und dadurch Entwicklungszeit zu sparen.
Die in dieser Sammlung zusammengetragenen Texte reicht der Autor als kumulative Habilitationsleistung bei der Fakultät »Umwelt und Technik« der Leuphana Universität Lüneburg zum Zwecke des Erwerbs der Lehrbefugnis für die Fachrichtung »Informatik/Digitale Medien« ein. Die Texte sind alle in den letzten zehn Jahren veröffentlicht worden, meist im Druck, einige online. Als Einzelveröffentlichungen behandeln sie jeweils separate Themen, deshalb werden ihr Ursprung, der Gesamtzusammenhang und die daraus entwickelbaren Perspektiven für Forschung und Lehre an der Leuphana Universität Lüneburg im Folgenden umrissen.
Auf Grund der stetig wachsenden Menge an Daten gewinnt die automatische Datenanalyse durch Algorithmen zunehmend an Bedeutung. Im Speziellen trägt die Analyse von Texten ohne manuelles Zutun zu einer erheblichen Erleichterung der Extraktion von relevanten Informationen bei. Sprachliche Informationen können neben der Zuordnung zu Kategorien auf Regeln und Muster untersucht werden. Diese Art der Untersuchung fällt in den Bereich des Text Minings, und in der vorliegenden Arbeit geht es darum, eine qualitative Inhaltsanalyse zum Thema Nachhaltigkeit nachzuempfinden. Es soll geprüft werden, in wie weit automatisierte Verfahren in der Lage sind, Ergebnisse einer bereits bestehenden Untersuchung zu erzielen. In der Durchführung werden mit der Open Source-Software RapidMiner vier Prozesse erstellt, die darauf abzielen, Zeitungsartikel auf ihren Inhalt zu analysieren. Unter anderem werden eine Assoziationsanalyse und eine Klassifikation realisiert, deren Ziel es ist, den Kontext und die Verwendung des Begriffes der Nachhaltigkeit in den Medien zu untersuchen. Die vorliegende Studie will prüfen, ob automatisierten Methoden im Vergleich zu manuellen Verfahren hinreichende Ergebnisse liefern können, sodass die hiesigen Resultate an denen der zu Grunde gelegten Studie von Fischer und Haucke gemessen werden sollen. Die Ergebnisse zeigen, dass die Realisierung einer Inhaltsanalyse mit RapidMiner möglich ist und zu erheblichen Zeiteinsparungen gegenüber konventionellen Verfahren führt. Sie zeigen jedoch auch, dass sich die Minderung des Aufwandes in der Ergebnisqualität widerspiegelt und somit der alleinige Einsatz von Text Mining Verfahren zur Analyse von spezifischen Kontexten noch nicht ausreichend ist.
Maximizing the value from data has become a key challenge for companies as it helps improve operations and decision making, enhances products and services, and, ultimately, leads to new business models. While enterprise architecture (EA) management and modeling have proven their value for IT-related projects, the support of enterprise architecture for data-driven business models (DDBMs) is a rather new and unexplored field. The research group argues that the current understanding of the intersection of data-driven business model innovation and enterprise architecture is incomplete because of five challenges that have not been addressed in existing research: (1) lack of knowledge of how companies design and realize data-driven business models from a process perspective, (2) lack of knowledge on the implementation phase of data-driven business models, (3) lack of knowledge on the potential support enterprise architecture modeling and management can provide to data-driven business model endeavors, (4) lack of knowledge on how enterprise architecture modeling and management support data-driven business model design and realization in practice, (5) lack of knowledge on how to deploy data-driven business models. The researchers address these challenges by examining how enterprise architecture modeling and management can benefit data-driven business model innovation. The mixed-method approach of this thesis draws on a systematic literature review, qualitative empirical research as well as the design science research paradigm. The investigators conducted a systematic literature search on data-driven business models and enterprise architecture. Considering the novelty of data-driven business models for academia and practice, they conducted explorative qualitative research to explain "why" and "how" companies embark on realizing data-driven business models. Throughout these studies, the primary data source was semi-structured interviews. In order to provide an artifact for DDBM innovation, the researchers developed a theory for design and action. The data-driven business model innovation artifact was inductively developed in two design iterations based on the design science paradigm and the design science research framework.