Filtern
Erscheinungsjahr
Dokumenttyp
- Research Paper (66)
- Bericht (54)
- Diplomarbeit (53)
- Teil eines Buches (Kapitel) (41)
- Dissertation (33)
- Wissenschaftlicher Artikel (19)
- Arbeitspapier (14)
- Beitrag in Konferenzband (12)
- Buch (Monographie) (9)
- Sonstiges (6)
Sprache
- Deutsch (314) (entfernen)
Schlagworte
- Informatik (17)
- Kultur (15)
- Schule (12)
- Unternehmen (9)
- Computer (7)
- Internet (6)
- Lehrer (6)
- Philosophie (6)
- Pädagogik (6)
- Verwaltungsinformatik (6)
Institut
- Frühere Fachbereiche (314) (entfernen)
nicht verfügbar
Der vorliegende Forschungsbericht und Bericht über Auslandsbeziehungen 2006 der Fakultät II für Wirtschafts-, Verhaltens- und Rechtwissenschaften ist der erste Forschungsbericht nach Fusion der ehemaligen Universität Lüneburg und der ehemaligen Fachhochschule Nordostniedersachsen. In der neuen Fakultät II wurden der ehemalige Fachbereich Wirtschafts- und Sozialwissenschaften (ohne Sozialwissenschaften) der Universität und die ehemaligen Fachbereiche Wirtschaft, Wirtschaftsrecht und Wirtschaftspsychologie der Fachhochschule zusammengefasst.
Die vorliegende Diplomarbeit beschreibt die Entwicklung eines Systems zur verteilten Bearbeitung rechenintensiver Probleme der Firma Analytic Company GmbH. Aufwendige Prozesse sollen dabei parallel auf mehreren Rechnern abgearbeitet werden. Im Ergebnis soll die im Rahmen dieser Arbeit entwickelte Anwendung zu einer schnelleren und flexibleren Abarbeitung rechenintensiver Probleme und besseren Nutzung der bestehenden Infrastruktur der Firma führen.
Das Thema der vorliegende Diplomarbeit enstand im Rahmen von Praxissemestern bei der Firma Rockwell Automation. Sie handelt vom Einsatz und der Bedeutung von Visualisierungssystemen in einer modernen Produktionsumgebung. Es wird das Visualisierungsprogramm RSView SE vorgestellt.
Gegenstand der Diplomarbeit ist die Untersuchung von Steuerungsverfahren für freiaufgestellte, nachgeführte Photovoltaikanlagen (PV-Anlage). Diese Variante wird auch Freiflächenanlage genannt, weil die PV-Anlage nicht auf einem Gebäude, sondern auf einer Freifläche aufgestellt ist. Für freiaufgestellte, zweiachsig, dem Sonnenverlauf nachgeführte Prototypen von PV-Anlagen sind Untersuchungen zur Ertragsanalyse gegenüber starr oder einachsig arbeitenden PV-Anlagen vorzunehmen. Hierzu wird ein Messaufbau in der Diplomarbeit beschrieben.
nicht verfügbar
Zusammenfassend ist zu konstatieren, dass bislang in vielen Unternehmen und Kreditinstituten faktisch eine Diskriminierung älterer Mitarbeiter stattfindet. Eine antizipative Personalentwicklung in Sparkassen muss allerdings den Faktor "Alter" explizit in ihren Strategien berücksichtigen und ein Altersmanagement initiieren. Ein solches Altersmanagement führt wiederum zu einer höheren Arbeitgeberfähigkeit von Sparkassen und macht sie für Arbeitnehmer interessanter. Die diesbezügliche höhere Arbeitgeberfähigkeit gilt explizit auch für jüngere Arbeitnehmer, die vielfach ein Altersmanagement gerade im Hinblick der eigenen Alterung zu schätzen wissen. Erste Ansätze die Ressource älterer Mitarbeiter nicht nur verbal, sondern auch faktisch stärker zu schätzen sind gegenwärting in der wirtschaftlichen Aufschwungphase festzustellen. Wie nachhaltig diese Entwicklung aber ist und ob es sich hierbei wirklich um einen Trendwende handelt, wird wahrscheinlich erst der nächste wirtschaftliche Abschwung zeigen.
Text zum Ausstellungskatalog von Franz John: Turing Tables.
Die Ensembles der bildenden Künstlerin Anna Oppermann (1940-1993) zeichnen sich durch ihre Selbstreferentialität, durch ihre vielfältigen Verknüpfungen und Verflechtungen der einzelnen Elemente untereinander aus und bilden so tiefgründige Erfahrungs- und Assoziationsräume. Im Rahmen des Forschungsprojekts "Hypermediale Bild-, Text-, Videoarchive zur Dokumentation komplexer Artefake der Bildenden Kunst" beschäftigt sich seit 1997 eine Gruppe von Wissenschaftlern und Studenten an der Universität Lüneburg mit der strukturerhaltenden Dokumentation einiger wichtiger Ensembles in Bild, Text, innerem Aufbau und wechselseitiger Verknüpfung.
Die unternehmensinterne Kommunikation (IK) ist ein brisantes Thema, das bereits aus vielen Perspektiven heraus beleuchtet wurde. Trotz zahlreicher wissenschaftlicher Bemühungen sich dem Thema anzunehmen, ist bei vielen Mitarbeitern von Unternehmen bis heute eine Unzufriedenheit mit der nach innen gerichteten Kommunikationspolitik der Arbeitgeber zu beobachten. Diese lässt eine mangelnde gegenseitige Bezugnahme von Theorie und Praxis vermuten. In der vorliegenden Arbeit wird zunächst untersucht, was genau sich hinter dem „Modewort“ Kommunikation verbirgt. Dabei werden verschiedene Kommunikationsmodelle vorgestellt, die Hinweise darauf liefern, welche Aspekte beim Entwurf einer zeitgemäßen Kommunikationsauslegung zu berücksichtigen sind. Basierend auf den so gewonnenen Erkenntnissen wird ein eigenes Begriffsverständnis abgeleitet, das darum bemüht ist, der hohen Komplexität des Phänomens gerecht zu werden. Hervorzuheben ist dabei, dass Kommunikation immer gleichzeitig einen äußerlichen und einen innerlichen Prozess beschreibt, der es schwierig macht, diesen zu planen bzw. dessen Wirkung vorauszusagen. Wie gleich zu Beginn der Abhandlung erkennbar wird, weisen eine Reihe von Entwicklungen innerhalb von Unternehmen sowie in deren Umfeld auf die Notwendigkeit hin, dass es auch im internen Kommunikationsbereich zu Veränderungen kommt, die den sich wandelnden Rahmenbedingungen der Informationsprozessierung Rechnung tragen. Hervorzuheben sind in diesem Zusammenhang insbesondere „neue“ Organisationsstrukturen, veränderte Ansprüche von Mitarbeitern an die IK und die Durchdringung dieser mit immer neuen Medien. Diese drei grundsätzlichen Tendenzen stehen in direkter Verbindung zueinander und stellen Unternehmen -genau wie ihre Mitarbeiter- vor neue Herausforderungen. Zunächst wird der Medienbegriff näher untersucht, um ein für den Kommunikationskontext sinnvolles Medienverständnis zu formulieren. Medien werden hier als Hilfsinstanz im Kommunikationsprozess verstanden, die es erlaubt, Informationen auch über räumliche und/oder zeitliche Distanzen hinweg zu verbreiten. Eben diese Errungenschaften der Medien bergen gleichzeitig eine Reihe von Risiken, die nicht zuletzt auch den Erfolg von Kommunikation betreffen, der im internen Unternehmensbezug vor allem darin zu sehen ist, dass beim Empfänger von Informationen eine intendierte Reaktion erfolgt. Diese kann sich in einem bestimmten Verhalten, aber auch veränderten Ansichten und Einstellungen des Rezipienten niederschlagen. Da der Medieneinsatz im Rahmen der IK zunehmend an Bedeutung gewinnt, muss diesem Aspekt besondere Aufmerksamkeit zukommen. Wie unter Rückgriff auf verschiedene Kommunikationsmodelle deutlich gemacht wird, kommt es durch die medienbedingte strukturelle Veränderung der Kommunikation zu einer Reihe von Effekten, die meist mit Restriktionen verbunden sind. Sowohl Informations- als auch Kanalvielfalt werden häufig eingeschränkt und führen zu einer veränderten Kommunikationssituation. Für die Akteure bedeutet dies, dass sie mit einem reduzierten Kommunikationsdesign konfrontiert sind, da besonders nonverbale Informationen nicht selten herausgefiltert werden und/oder die Möglichkeit zur direkten Interaktion eingeschränkt wird. Gerade diese für persönliche Kontakte typischen Merkmale sind jedoch von großer Bedeutung für den Kommunikationserfolg. Das Ziel dieser Arbeit ist folglich, zielführende Mittel und Wege auszuloten, die eben beschriebene Defizite medialer Kontakte ausgleichen können und ihre Potentiale voll nutzbar machen. Eine wichtige Rolle spielen in diesem Zusammenhang die verschiedenen Koordinationsweisen von Unternehmen, die weitgehend auch für Kommunikationsprozesse Gültigkeit besitzen. Durch eine Untersuchung und Gegenüberstellung der einzelnen Koordinationsmechanismen wird deutlich, dass besonders solche bei der Abstimmung zwischenmenschlicher Informationsprozesse viel versprechend sind, die auf Beziehungen gestützt sind, also auf freiwilliger Basis ent- und fortbestehen. Kultur und Vertrauen als Repräsentanten dieser Kategorie werden besonders in jüngerer Zeit immer häufiger von der Organisationswissenschaft aufgegriffen. Sie haben im Vergleich zur zweiten identifizierten Gruppe der autoritätsbasierten Koordinationsweisen (z.B. Anweisungen, Regeln) den Vorteil, einen hohen Grad an Allgemeingültigkeit aufzuweisen, auch wenn dazu eine gewisse Vorlaufzeit zur Sammlung gemeinsamer Erfahrungen nötig ist. Eine ausgeprägte Allgemeingültigkeit ist in der Kommunikation deshalb unentbehrlich, weil eine Vielfalt situationsabhängiger Kontextvariablen das Geschehen bestimmt, von der im konkreten Fall nicht alle einzelnen berücksichtigt werden können, ohne hohen Zeit- und Kostenaufwand zu verursachen. So stellt sich heraus, dass nur der kombinierte Einsatz verschiedener Koordinationsformen wirksam sein kann, wobei Kultur und Vertrauen als beziehungsgeleitete Varianten besondere Betonung finden sollten. Kernpunkt der Dissertation ist deshalb eine Analyse einzelner Komponenten dieser Mechanismen, die unerlässlich ist, um ihre Wirkung im Rahmen der Kommunikationsprozessierung detailliert untersuchen zu können. Hier wird deutlich, dass medienbedingte Informationsdefizite und eingeschränkte Rückkopplungsmöglichkeiten erfolgreich durch eine günstige Ausprägung der verschiedenen Kulturbereiche sowie ein hohes Maß an Vertrauen auf verschiedenen Ebenen ausgeglichen werden können. Auf dem Weg zu einem umfassenden Optimierungskonzept der unternehmensinternen (Medien-)Kommunikation wird als abschließender Schritt ausführlich erläutert, wie sich auf Vertrauen und Kultur als Wegbereiter einer effektiven und effizienten zwischenmenschlichen Kommunikation einwirken lässt. Die diesbezüglich herausgearbeiteten Einflussfaktoren lassen sich zunächst grob in zwei Gruppen unterteilen, von denen die eine als personenbezogene und die andere als zwischenmenschliche Erfolgsdeterminante bezeichnet wird. Es geht hier einerseits um die kommunikationsrelevanten Kompetenzen einzelner Mitarbeiter, die sich auf deren Umgang mit Informationen, Medien sowie anderen Personen beziehen und maßgeblichen Einfluss auf die unternehmensinterne Lage von Vertrauen und Kultur in seinen unterschiedlichen Dimensionen üben. Andererseits sind es die im Rahmen der verschiedenen unternehmensinternen Informationsflussrichtungen erkennbaren Kommunikationsbereiche, die ihrerseits einen wichtigen Beitrag zur gezielten Förderung eines ertragreichen Miteinanders leisten. An dieser Stelle kristallisieren sich vielseitige Wirkungszusammenhänge heraus, die in der Arbeit ausführlich dargelegt werden. Zusammenfassend ist festzuhalten, dass Kommunikation im aufgegriffenen Themenkontext gleichzeitig als wichtiger Erfolgsfaktor und anvisierte Zielgröße in Erscheinung tritt, woran deutlich wird, dass Informationsprozesse in gewisser Weise sowohl das Mittel als auch den Zweck der herausgearbeiteten Optimierungsstrategie darstellen. Festzuhalten ist, dass Kommunikationsprozesse unter besonderer Berücksichtigung des verstärkten medialen Einflusses nur auf der Basis gesunder Beziehungen im Unternehmen gleichzeitig rational als auch effektiv sein können. Interne Beziehungen hängen ihrerseits von den Kompetenzen einzelner Mitarbeiter und dem reibungslosen Informationsfluss sowohl in vertikaler als auch horizontaler Richtung ab. Der Fokus bei der Organisation der IK muss folglich auf der Ausgestaltung günstiger Rahmenbedingungen bzw. Voraussetzungen als Grundlage für erfolgreiche Informationsprozesse liegen, während konkrete Einzelfallregelungen und Anweisungen auf diesem Gebiet eine eher untergeordnete Rolle spielen, da diese Mechanismen die hier auftretenden Problemstellungen nur unzureichend aufgreifen.
Das Auffinden von Bildern im Internet ist immer noch an die Sprache als Verweis- und Indizierungsvehikel gebunden. Der Struktur und dem bildimmanenten Aufbau eines Bildes wird dabei keine Bedeutung beigemessen, die treffsichere Beschreibung und Betitelung des Bildes durch den Publizierenden entscheidet über seine Auffindbarkeit im WWW. Dieser Text setzt sich mit derzeitigen Verweisstrukturen des WWW und ihrer Anwendbarkeit auf Bilder auseinander, zeigt Schwächen auf und stellt mit PeTAL ein im Aufbau befindliches System vor, das Abhilfe schaffen könnte.
Beschrieben wird eine bedeutende Karte des hohen Mittelalters, ihre Herkunft, ihr Gehalt, ihre Struktur, einige Aspekte des von ihr verkörperten Weltbildes sowie ihre Dokumentation mit digitalen Medien.
Diese Publikation setzt sich unter dem Leitmotiv der Digitalisierung mit Aspekten der Wissensvermittlung auseinander. In diesem Beitrag ist also zu klären, was Wissen und die Vermittlung des Wissens mit Computertechnik zu tun haben und des weiteren, wie sich das neue Medium Computer in den delikaten Prozeß einmischt, in dem sich Individuen ein Bild von der Welt machen.
Im Jahr 1991 fand in Lueneburg im dortigen Museum ein Ausstellungsprojekt statt, geplant und realisiert von Lehrenden und Studierenden unserer Universitaet. Anna Oppermann war eine der eingeladenen Kuenstlerinnen und steuerte ihr "Friduttchen"-Ensemble bei. Aus diesem Treffen entstand die Idee, den Versuch zu wagen, ihre hoch komplexe, fragile, vergaengliche Arbeit mit den informatischen und kunstwissenschaftlichen Methoden zu dokumentieren, die wir Gelegenheit hatten, ihr vorzustellen. Im folgenden Jahr entstanden dann in enger Absprache mit der Kuenstlerin erste Versionen eines digitalen Archivs ihres Ensembles "Umarmungen, Unerklaerliches und eine Gedichtzeile von R.M.R." Der Beitrag berichtet ueber das Projekt und die Dokumentation der Arbeit Anna Oppermanns mit dem XML-Standard PeTAL.
Die Paechsche "Figuration der Aufloesung" beschreibt den subkutanen Medienwechsel eines mittelalterlichen Manuskripts von 1239, verdraengt vom Satz mit den beweglichen Lettern eines Johann Gensfleisch zum Gutenberg um 1440 in die Turing-Galaxis der digitalen Medien des zwanzigsten Jahrhunderts. Diese Entwicklung wird hier am Beispiel der Ebstorfer Weltkarte nachvollzogen, die im Digitalen wieder ein adaequates Medium fand.
PeTAL Document Type Definition, Syntaxbeschreibung des XML-Standards zur Annotation von Bildern.
Bei den Statistischen Ämtern des Bundes und der Länder und im Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit werden zahlreiche Daten für Unternehmen bzw. Betriebe gesammelt und aufbereitet. Durch das Unternehmensregister ist bei den Statistischen Ämtern eine "Masterdatei" entstanden, die es technisch möglich macht, Unternehmensdaten aus den Beständen der genannten und weiteren Institutionen zusammenzuführen. Das Projekt KombiFiD – Kombinierte Firmendaten für Deutschland soll zeigen, dass ausgewählte Datenbestände tatsächlich über die Grenzen der jeweiligen Datenproduzenten zusammengeführt und der Wissenschaft zur Verfügung gestellt werden können, und es soll gleichzeitig demonstrieren, dass das Analysepotenzial dieser kombinierten Datensätze sehr viel höher ist als das der einzelnen Bestandteile. Der vorliegende Beitrag stellt die Konzeption dieses Projekts und das geplante Vorgehen vor.
Systemprotest! Die Arbeit handelt von Kommunikation. Über Systeme, Schemata, Qualität, Nachhaltigkeit, Erziehung und Bildung für nachhaltige Entwicklung. Die Arbeit handelt von der Frage, was gute Bildung für nachhaltige Entwicklung ist. Die Arbeit handelt von den vielen Problemen die auftreten, wenn man solche Fragen stellt. Die Arbeit handelt von Auswegen aus den vielen Problemen, die sich aber erst dann zeigen, wenn man nicht nach ihnen sucht.
In diesem Text soll es um Computerkultur gehen, die mit den Begriffen Synthese, Mimesis und Emergenz beschrieben wird. Fuer das Kulturprodukt - vielleicht sogar Kulturindustrie-Produkt - Film ist die Zeit guenstig fuer ein solches Unterfangen, denn wir koennen mittlerweile gut zwanzig Jahre ueberblicken, wir koennen bei der technischen Basis des synthetischen fotorealistischen Computergraphik-Bildes beginnen, sind im Moment in der Hochzeit der Animation in voller mimetischer Pracht angelangt, sehen aber auch schon, was an hochgradig vernetztem Geschehen z. B. als massive online role game Emergenzen zeitigt.
Es geht um die Widerstaendigkeit des Bildes, um das Phaenomen des Unvermoegens von Suchmaschinen, Bilder ebenso effizient aus der Flut des online zugaenglichen Materials zu filtern, wie es bei Texten so exzellent funktioniert. Dabei wird die Pointe sein, dass es sich nicht um ein informatisches Problem handelt, eines, das sich mit raffinierteren Algorithmen und schnelleren Computern in den Griff bekommen liesse, sondern, dass es sich um ein kulturell emergentes Phaenomen handelt, also zum dritten Teil der Triade Synthese - Mimesis - Emergenz gehoert.
Cut,-Copy-and-Paste-Verfahren gelten in Kreisen der Hochkultur immer noch als verschrien und trennen "echte" Kunst eindeutig von Nicht-Kunst. Das Werk Glenn Goulds zeigt beispielhaft, dass solche Festschreibungen nicht immer gelten. Nach dem Ende des auratischen Kunstwerks entsteht keine in und durch die Medien neu vergesellschaftete Kunst, sondern ein neuer Mythos. Nach dem Mythos der High Fidelity folgt der Mythos der Produktionstechniken und ihrer Magier, ein Mythos, an dem Gould - neben seinen Kollegen aus der "populaeren Musik", den Beatles, den Beach Boys und ihren Studioingenieuren - als einer der Ersten kraeftig mitstrickt.
Turings Maschine ist, wie man weiß, nie gebaut worden, und dies wäre auch nicht möglich. Dennoch und gerade deswegen kann sie als das Vorbild eines jeden Computers gelten, der bislang gebaut wurde oder es je werden wird. Denn sie, Turings Gedanken- oder Papiermaschine, wurde mit Vorbedacht als ein so simpler Mechanismus entworfen, daß an ihrer prinzipiellen Realisierbarkeit und daran, dass sie ohne menschlichen Eingriff zu funktionieren imstande wäre, kein Zweifel bestehen kann.
Wir haben es bei unserem Thema also mit einem Phantasma zu tun, dem der Beseelung, der Unterstellung von Odem, von Atem, bei toter Materie, bei den Maschinen. Und auch der Eindruck, die Maschinen machten sich nach und nach selbständig, und sie hätten so etwas wie Autonomie, ist natürlich nicht von der Hand zu weisen. Niemand könnte mehr behaupten, etwa das Internet noch zu beherrschen, wie man ein Werkzeug beherrscht. Unbeherrschbarkeit ist ja geradezu ein notwendiges Charakteristikum selbstorganisierender Systeme. Aber ist es denn so, dass wir unsere Computersysteme nicht mehr direkt programmieren können, bleibt uns, wie bei Kontrollversuchen an autopoietischen Systemen nur die Handlungsoption, Bedingungen für Möglichkeiten zu schaffen, und sind wir dann zum Zusehen und Abwarten verurteilt, ob manches dann auch so kommt, wie wir es intendieren?
Es ist zu fragen, ob das Neue am Cyberspace tatsächlich eine gänzlich andere Topographie – jenseits der Grenzen des uns bekannten Raumes – oder eine ganz neue Ökonomie sei, die den Gesetzen des Kapitalismus nicht mehr gehorcht, ob im Cyberspace gar Raum, Zeit und Geld verschwänden, welche die neuen Verhältnisse sind, in denen wir ein Leben führen, das zweifellos tatsächlich ein anderes ist als vor Erfindung der weltumspannend vernetzten Digitalcomputer.
Die Funktion des Archivs ist eine unmögliche. Der Aufgabe, die Archivalien zu bewahren, indem man sie vor dem zerstörerischen Zugriff ihrer Nutzer bewahrt, ist unvereinbar mit der Aufgabe, die eingelagerten Materialien allgemein zugänglich zu machen. Digitale Datenhaltung könnte die Lösung des archivarischen Dilemmas sein, sie ermöglicht so gut wie verlustfreies kopieren und vervielfältigen von Daten. Die sich daraus ergebenden Ewigkeits-Vorstellungen zum Digitalen, legen den Schluß von »digital« auf »Archiv« nahe. Es ist allerdings, um die Pointe vorwegzunehmen, ein Kurz-Schluß, ein Phantasma und kein technisches Faktum, um das es hier geht. Das Digitale, wir werden es noch sehen, ist ein archivarischer Albtraum, und zwar aus vielerlei Gründen, die im Folgenden zur Sprache kommen sollen.
Entlang des Schemas aus den Begriffen Synthese, Mimesis und Emergenz, die auch immer als historische Kategorien begriffen werden, indem sie mit Epochen der Computertechnik parallel laufen, längs dieser Triade soll nun die Kunst zur Sprache kommen. Synthetisch ließen sich die frühen Computergraphiken und die stochastisch fundierten musikalischen Stilübungen Lejaren Hillers erzeugen; mimetischen Verfahren der Vor- und Nachahmung kommt man bei der interaktiven Medienkunst auf die Spur; vernetzt lassen sich künstlerische Experimente auf die Emergenzen des Sozialen ein.
Es dauert nicht mehr lange, dann wird es schwer werden, einen Computer zu fassen zu bekommen, geschweige denn, sich seiner mittels Handgreiflichkeiten zu entledigen. Die Autoren des einschlägigen Buchs über das Quantencomputing »The ultimate zero and one«, Colin Williams und Scott Clearwater, drücken das so aus: »Computers are starting to disappear before our very eyes by becoming part of the fabric of our world.«
Die schiere Quantität ist hier von zentralem Belang – als würde Engels’ ›Dialektik der Natur‹ wieder ihr Haupt aus dem gewiß geglaubten Grabe erheben und erneut fröhlich Quantität in Qualität umschlagen lassen. Es geht um obere und untere Grenzen von Informationsclustern, um die Frage also auch, ob dem Immer-Mehr nicht doch irgendwelche Grenzen gesetzt sind.
Interaktivität stellt fürr Virtualität eine notwendige Bedingung dar, denn zur subjektiven Konstruktion einer Realitätt aus computererzeugten Sinnesdaten muss sich die Feedback-Schleife aus Handlung, Wahrnehmung und darauf reagierender erneuter Handlung eng schließen. Der Text beleuchtet aus Sicht der Kulturinformatik die technikgeschichtlichen und kunsttheoretischen Zusammenhänge zweier Begriffe, die zentral sind für den Diskurs um und die Verortung von interaktiver Computerkunst.
Die Industriebetriebe erwirtschaften knapp ein Viertel des deutschen Bruttoinlandsprodukts. Der Monatsbericht für Betriebe des Verarbeitenden Gewerbes sowie des Bergbaus und der Gewinnung von Steinen und Erden stellt für diese Betriebe eine Reihe wichtiger Daten bereit. Seit Ende 2006 ist dieses Datenmaterial, aufbereitet als Panel für die Jahre 1995 bis 2004 (und für 1995 bis 2002 ergänzt um die Angaben industrieller Kleinbetriebe), für ganz Deutschland in den Forschungsdatenzentren der Statistischen Ämter für Wissenschaftler zugänglich. Dieser Beitrag zeigt an drei Beispielen die Forschungspotenziale dieser Paneldaten für die Aufdeckung von empirischen Fakten, die statistische Überprüfung von theoretischen Hypothesen und die wissenschaftliche Politikberatung auf.
Die Biotechnologie, identifiziert als eine der strategischen Zukunftstechnologien, ist gekennzeichnet durch eine hohe Forschungsintensität mit breiten Anwendungsfeldern. Nach einer seit 2001 andauernden Konsolidierungsphase steht die Branche gegenwärtig vor neuen Herausforderungen: der EU-Osterweiterung sowie der massiv vorangetriebenen Technologiepolitik in den Schwellenländer Indien und China. Einerseits entstehen durch die Integration dieser Wachstumsmärkte neue Forschungs-, Produktions- und Absatzmöglichkeiten, andererseits birgt der steigende Wettbewerbsdruck ein nicht unwesentliches Risiko für die junge deutsche Branche. Der vorliegende Beitrag setzt die Ergebnisse einer 2006 durchgeführten Online-Befragung deutscher BT-Unternehmen in direkten Bezug zur niedersächsischen BT-Industrie. Im zweiten Schritt wird die Analyse durch numerische Simulationen der EU-Erweiterung 2004 im Rahmen der so genannten New Economic Geography ergänzt. Die Analysen zeigen eine Verlagerungstendenz der Biotechnologiebranche in die europäische Peripherie. Diese Tendenz wird jedoch aufgrund von Infrastruktur- und Faktormarktrestriktionen gravierend gedämpft.
Diese Studie untersucht mit Hilfe eines neu verfügbaren Datensatzes aus Prozessdaten der Bundesagentur für Arbeit, der Stichprobe der integrierten Erwerbsbiographien, die Wirkung einer verpflichtenden Beschäftigungsquote für schwerbehinderte Arbeitnehmer in Deutschland. Wir nutzen die exogene Senkung dieser Quote durch die Einführung des „Gesetzes zur Bekämpfung der Arbeitslosigkeit Schwerbehinderter“ als natürliches Experiment und schätzen die Änderung in der Wahrscheinlichkeit einer Beschäftigungsaufnahme durch regressionkorrigierte Difference-in-Difference-Schätzer. Unsere Ergebnisse legen nahe, dass die Änderung der Beschäftigungsquote die Beschäftigungschancen von Schwerbehinderten weder verbessert noch verschlechtert hat.
Dieses Papier präsentiert deskriptive Evidenz zur Struktur von Ich-AG-Gründungen und Gründern aus dem Arbeitsagenturbezirk Lüneburg. Die Ergebnisse basieren auf einer Befragung aller Gründer, die zwischen Juni 2004 und Februar 2005 selbstständig geworden sind und von der Arbeitsagentur Lüneburg gefördert wurden.
Recent discussions about the evolvement of nanotechnologies criticize that the notion ‘risk’ is too abstract and an all-inclusive category. Moreover, the concept of risk is not precise enough to describe the potential issues related to the development of nanotechnologies. Instead, experts of technological development speak more about risk communication. Within the field of nanotechnologies, they even redefined this expression in February 2005 and related it to the question of the societal acceptance of nanotechnologies. Risk communication is about to gain stakeholder acceptance of policy decisions, whereas public and stakeholders are encouraged to participate actively in the communication process through public consultations, hearings, etc. Thus on the one hand, the category of risk has been pragmatically nuanced in order to better highlight the vulnerability of the communication on nanotechnologies. On the other hand, this vulnerable communication is not the result of a deficit of information. It is based on the idea of participation, where the vulnerability relies on the social groups specialized in the design, the application, and the diffusion of nanotechnologies within society. How is this participation possible, and what does it mean? We develop this question in the framework of a comparative survey on experts that are involved in the deployment of nanotechnologies in Grenoble (France) and Hamburg (Germany).
Die Arbeit, von der die Rede sein soll, ist keine historische und keine philologische, sondern eine mediale. Wir haben vor vielen Jahren eine mediale Transformation an der Großen Ebstorferin vorgenommen, eine vom Pergament auf den Computerbildschirm, und dabei eine Zeitspanne der Medientechnik von 700 Jahren überbrückt, dabei die Ära des Buches übersprungen, die so stark unsere heutige Kultur geprägt, vielleicht besser: hervorgebracht, hat.
Wie viele andere Anregungen, so ist auch das Thema »Zeitpfeil« im Gespräch mit Claus Pias entstanden. Irgendwie sind wir auf das Thema gestoßen, inwieweit und ob Computer Maschinen mit Geschichte sind, ob reversibel oder nicht. Meine Physiker-Antwort, dass sie natürlich nicht-reversibel sind, weil sie bei der Arbeit warm werden, also Energie dissipieren, hat mich dann selbst nicht befriedigt, und so kam es, danach zu fragen, welche Arten von Entwicklung, welche Gesetzmäßigkeiten oder Zufälligkeiten benennbar sind, die der digitalen Informationstechnik einen Zeitpfeil, ein Jetzt, Zuvor und ein Danach geben.
Zweifellos gibt es fruchtbare Blickwinkel, unter denen Computermedien im Prozeß einer Sinnproduktion zu betrachten sind. Gerade wegen ihrer semantischen Enthaltsamkeit nämlich – zu der noch mehr und Weiteres zu sagen sein wird – wegen ihrer semantischen Abstinenz also sind Computer überaus wirksam bei der Errichtung symbolischer Ordnungen, treten sie als Apparate und Medien bei der Errichtung von Wissensordnungen in Erscheinung, die ohne sie nicht existieren würden.
Der weltweite Energieverbrauch nimmt stetig zu. Statistiken zeigen, dass ein wesentlicher Anteil dieses Anstiegs nicht von der Industrie ausgeht, sondern auf Privathaushalte und öffentliche Einrichtungen zurückzuführen ist. Die Anzahl der elektrischen Verbraucher in einem durchschnittlichen Privathaushalt steigt. Es wird für den Menschen schwieriger zu beurteilen, was in seiner persönlichen Umgebung welche Menge Energie verbraucht. Diese Mannigfaltigkeit an Verbrauchern manuell im Sinne eines effizienten Umgangs mit Energie zu managen ist kaum möglich. In dieser Arbeit wird ein System skizziert, welches es einem Gebäude erlaubt seine Energieströme in autonomer Weise selbst zu verwalten. Ein hochdynamisches Netz verteilter Netzwerkknoten soll in der Lage sein, elektrische Verbraucher entsprechend den Bedürfnissen der Benutzer zu verwalten mit dem Ziel, den Gesamtenergiebedarf des Netzes zu minimieren. Es ist eine besondere Herausforderung, dass in diesem Netzwerk gleichberechtigter Knoten auf Grund von technischen Randbedingungen kein Knoten globales Wissen über das Gesamtnetzwerk akkumulieren kann. Für diese Optimierungsaufgabe wurde die Ant Colony Optimization (ACO) ausgewählt. Damit innerhalb des hochdynamischen Netzwerks eine Optimierung nur auf Basis der lokalen Informationen der Netzteilnehmer durchgeführt werden kann, wird eine angepasste ACO Variante, das das Asynchronous Ant System, eingeführt. Diese Arbeit stellt eine Java-basierte Simulation des AAS Algorithmus im verteilten Netz sowie eine ANSI C Implementierung des AAS Systems auf einer Embedded Plattform vor. Es zeigt sich, dass es mit Hilfe des AAS möglich ist, Optimierungsaufgaben im verteilten Netz zu lösen.
Die vorliegende Diplomarbeit ist im Rahmen eines Praxissemesters bei der Hermes Warehousing Solutions GmbH (HWS) entstanden. Sie beschäftigt sich mit den besonderen Anforderungen an den Vertriebsprozess für beratungsintensive Dienstleistungen.
This paper aims to determine if the contingent valuation method (CVM) can provide valid results useful in policy-making. This will be investigated by using a CV study that captures the willingness to pay (WTP) for the municipal cultural supply in Lueneburg, Germany. In contrast to previous CV studies that included a wide range of descriptive statistics, the empirical analysis of the current study focuses on multivariate analysis to explore the factors associated with the WTP. The results reflect current hypotheses in cultural economics. Thus, higher education levels and higher income are positively correlated with higher WTP. While the results indicate a highly significant impact of non-use values on the WTP for cultural goods across the different regression models, the findings for some variables differ considerably in magnitude across different regression models.
Gemäß Betriebsverfassungsgesetz müssen in Deutschland Betriebe ab einer bestimmten Größe Betriebsräte von ihrer beruflichen Tätigkeit freistellen. Anhand einer Vollerhebung aller betroffenen Betriebe wird in dieser Arbeit der Frage nachgegangen, ob die (mit Kosten verbundene) Freistellung des ersten Betriebsratsmitglieds eine bremsende Wirkung auf die Beschäftigungsdynamik von Betrieben hat. Weiterhin wird untersucht, ob die im Juli 2001 erfolgte Herabsetzung des Schwellenwerts von 300 auf 200 Arbeitnehmer zu einer Veränderung des Beschäftigungswachstums von Betrieben an diesen Schwellen geführt hat. Sowohl deskriptive als auch die ökonometrische Analysen deuten darauf hin, dass weder die alte noch die neue Freistellungsschwelle einen Einfluss auf das Beschäftigungswachstum von Betrieben hatte. Gleiches gilt für die gesetzliche Änderung des Schwellenwerts.
Die vorliegende Längsschnittuntersuchung der BA-geförderten Gründungskohorte des zweiten Halbjahres 2003 im Agenturbezirk Uelzen vergleicht mittels einer schriftlichen Befragung drei Jahre nach Gründungsbeginn schwerpunktmäßig ÜG- und ExGZ-Gründungen hinsichtlich erfolgsbezogener Merkmale. Zusätzlich werden die im Rahmen der Befragung erhobenen Informationen zur Gründungsmotivation, Gründungsvorbereitung, den finanziellen Rahmenbedingungen und der Bedeutung bestimmter Förderbedingungen für die Gründer ausgewertet. Bei einer Rücklaufquote von ca. 19 Prozent liegen 32 verwertbare ÜG- und 43 ExGZ-Fragebögen vor. Zur Überprüfung der Unterschiede von ÜG- und ExGZ-Gründungen werden T-Tests genutzt. Die Ergebnisse bestätigen erneut das Vorliegen einiger signifikanter Unterschiede zwischen ÜG- und ExGZGründungen.
In dieser Diplomarbeit ist die Entwicklung eines Software-Tools zur Erzeugung von Datenpunkten in einem Prozessvisualisierungssystem beschrieben. Die Software beschränkt sich zum einen auf die iFIX TM als Visualisierungssoftware und zum anderen auf Visual Basic for Application als Programmiersprache. Mit Hilfe von diesem Tool werden alle nötigen Tags sowohl in der Datenbank als auch im OPC-Client von iFIX TM erzeugt. Die Erzeugung dieser Tags ist auf die Standardelemente begrenzt. Die Erstellung dieser Verknüpfungen soll mit möglichst wenig Wissen über die Anlage selbst und über den vor Ort herrschenden Standard erfolgen. Zusätzlich soll die Bedienung des Tools intuitiv und praxisnah sein. Die entwickelte Anwendung soll in den von der GEA TBS gebauten Anlage eingesetzt werden, um dem Anwender des Programms das Verknüpfen von neuen Bauteilen in einem bestehenden Prozessvisualisierungssystems zu erleichtern und dadurch Entwicklungszeit zu sparen.
Empirische Befunde zeigen, dass exportierende niedersächsische Industriebetriebe produktiver als vergleichbare nicht exportierende Betriebe sind, wobei diese Unterschiede bereits vor dem Exportstart bestehen (also eine Selbstselektion der produktiveren Betriebe auf Exportmärkte stattfindet), während es für Lerneffekte im Zusammenhang mit Exportaktivitäten und daraus folgendem höherem Produktivitätswachstum in exportierenden Betrieben keine Evidenz gibt. Mit neu verfügbaren Paneldaten für deutsche Industriebetriebe und auf der Grundlage der Ergebnisse einer neuen international vergleichenden Studie zeigt dieser Beitrag, dass die Produktivitätsprämie in Niedersachsen so hoch wie im Durchschnitt für den Rest von Westdeutschland, aber höher als für Ostdeutschland ist. Niedersachsen nimmt im internationalen Vergleich damit einen Mittelplatz unter den hier betrachteten Ländern ein. Ein interregionaler bzw. internationaler Vergleich der Größenordnungen der Selektions- und Lerneffekte ist hier allerdings nicht möglich. Zwar zeigt eine Gegenüberstellung der Ergebnisse für Niedersachsen mit denen für das übrige West- bzw. für Ostdeutschland und mit den übrigen EU-Ländern in den meisten Fällen ein Bild ähnlich wie für Niedersachsen, aber die Gruppen der Starter umfassen dabei in der Regel nur wenige Firmen, und die geschätzten Koeffizienten sind sehr häufig statistisch insignifikant, so dass ein quantitativer Vergleich nicht möglich ist.
Der Münchener Philosoph und Spiritist Carl du Prel (1839–1899) gehörte mit seinen Büchern (Philosophie der Mystik, Der Spiritismus, Das Rätsel des Menschen u.a.) zu den wichtigsten Vertretern der spiritistischen/okkultistischen Szene Deutschlands dieser Epoche. Seine Verdienste lagen zwar auch in einer, wenn auch weniger konkreten und systematischen empirischen Erforschung spiritistischer Phänomene oder als paranormal geltender Erscheinungen, doch vielmehr darin, als philosophischer Theoretiker den Spiritismus konzeptionell und theoretisierend zu durchdringen, indem er versuchte das Feld ‚wissenschaftlich’ aufzuarbeiten und gedanklich zu ordnen. In den Augen heutiger Wissenschaftler liegt seine Bedeutung in erster Linie in seiner Einflussnahme auf Literaten- und Künstlerkreise, in denen er die Funktion des Ideengebers übernahm. Gleichwohl fehlt bis heute eine umfassende Biografie, die sich mit den zahlreichen Facetten und verschiedenen Aspekten seiner Person und seines Lebens beschäftigt und gleichzeitig eine Neueinordnung seines Schaffens und Wirkens bewirkt. Diese Arbeit soll zum einen diese Lücke in der Kulturgeschichtsschreibung zu schließen helfen, und darüber hinaus ein Quellennachschlagewerk für all jene sein, die sich in Zukunft auf den verschiedenen Gebieten der Kunst, der Literatur und der Wissenschaft mit der Kulturgeschichte des ausgehenden 19. Jahrhunderts und dem Auftauchen der Strömung des Spiritismus beschäftigen wollen. Vergleichbar mit dem Blick auf die Spitze eines Eisbergs soll die vorliegende Arbeit einen ersten Einblick in bislang unbekanntes Datenmaterial einer subkulturellen Strömung einer ganzen Kulturepoche - der Gründerzeit und dem Historismus - geben. Die Recherchearbeiten für diese Arbeit brachten eine Fülle neuen Materials zutage, darunter etwa 700 Briefe und nahezu die vollständige Anzahl aller jemals von Carl du Prel veröffentlichten und unveröffentlichten Zeitungsartikel und Essays. Unter den Briefen findet sich die Korrespondenz zwischen Carl du Prel und dem ‚Philosophen des Unbewussten’, Eduard von Hartmann (1842–1906), die eine jahrzehntelange wechselvolle Briefbeziehung belegt. Des Weiteren finden sich Korrespondenzen mit dem Kantexperten Hans Vaihinger (1852–1933) und Alexander Aksakow (1832– 1903), dem damals bedeutendsten Netzwerker des Spiritismus in Europa. So kann man aus dem Briefwechsel zwischen Hartmann und du Prel unter anderem lesen, dass Hartmann du Prel offenbar zunächst zu seinen astronomisch- evolutionstheoretischen Spekulationen angeregt hatte, was diesen schließlich zum Spiritismus brachte und worüber es später zu einem Bruch zwischen Hartmann und du Prel kam. Der Schwerpunkt dieser Arbeit liegt in der Konzentration auf eine dokumentarische Binnensicht des Philosophen und ‚Seelenforscher’ Carl du Prel und der Rekonstruktion seiner soziokulturellen Netzwerke, begründet durch die Fülle des Materials. Du Prel zum einen als Briefschreiber in einem Umfeld von Gelehrten und Kulturschaffenden zu lesen, die sich gegenseitig in ihren Ideen befruchteten und immer neue Impulse in ihrem Schaffen gaben, gibt uns die Möglichkeit, ihm genauer in seiner Entwicklung und im Werden seiner Ideen zu folgen. Gleichzeitig erhält man einen Eindruck davon, wie er versuchte, durch seine Briefkontakte auf außeruniversitärem Weg Einfluss auf die damalige Gelehrtenwelt und einige Geistesgrößen zu nehmen. Zum anderen lernen wir ihn in einer Vielzahl von größeren und kleineren, wichtigen und unbedeutenden Zeitschriften als Feuilletonist in eigener Sache kennen. Hier versucht er auf direktem Wege Einfluss zu nehmen auf bestimmte Gruppierungen der Bevölkerung. Mit der Betrachtung dieser beiden Säulen seiner Wissens- und Erkenntnisvermittlung wird deutlich, dass du Prel bis in kleine Ausdifferenzierungen hinein zum Prototypen eines Wissenschaftspopularisiers in Sinne Andreas W. Daums (Wissenschaftspopularisierung im 19. Jahrhundert, München 2002) wurde, auch wenn es auf den ersten Blick so scheint, als gebe es keine Verbindung zwischen ihm und den klassischen Popularisierern wie Ernst Haeckel. Das zweite Kernelement dieser Arbeit wird, neben der Darstellung der Biografie und des Netzwerks, in welches sie eingebunden ist, die genauere Darstellung von du Prels Popularisierungsmechanismen sein. Mit dieser Arbeit wird zum ersten Mal ein Kompendium von neuen Materialien in Form von Quellen, Briefen und darüber hinaus eine umfangreiche Bibliografie erstellt und zugänglich gemacht.
In der öffentlichen Diskussion in Deutschland wird häufig die These vertreten, dass Arbeitsplätze vorwiegend in kleinen und mittleren Firmen geschaffen werden, während die großen Firmen vor allem Arbeitsplätze abbauen. Eine empirische Überprüfung für den Zeitraum 1999 bis 2005 mit Daten aller west- und ostdeutschen Betriebe, die mindestens einen sozialversicherungspflichtig Beschäftigten haben, zeigt, dass die These vom alleinigen „Jobmotor Mittelstand“ viel zu undifferenziert ist. In mittelständischen Unternehmen werden zwar überproportional viele Arbeitsplätze geschaffen, aber auch überproportional viele abgebaut. Großbetriebe mit 250 und mehr Beschäftigten weisen dagegen sowohl bei der Schaffung als auch beim Abbau von Arbeitsplätzen geringere Werte auf als es ihrem Beschäftigungsanteil entspräche. Wirtschaftspolitische Maßnahmen, die sich an der Zuordnung eines Unternehmens zu einer Größenklasse orientieren, lassen sich somit nicht mit einem besonders ausgeprägten Beitrag der Firmen aus dieser Größenklasse zum Beschäftigungswachstum rechtfertigen.
In this paper, we conduct a pan-European efficiency analysis to investigate the performance of European railways with a particular focus on economies of vertical integration. We test the hypothesis that integrated railways realize economies of scope and, thus, produce railway services with a higher level of efficiency. To determine whether joint or separate production is more efficient, we apply a Data Envelopment Analysis super-efficiency bootstrapping model which relates the efficiency for integrated production to a reference set consisting of separated firms which use a different production technology. We find that for a majority of European railways economies of scope exist.
Die vorliegende Dissertation setzt sich mit der Thematik der Science-Center und ihren pädagogischen Grundlagen auseinander. Darüber hinaus wird der besondere Aspekt der mehrsprachigen Gestaltung des Lernorts Vaisseau erläutert. Ziel der Arbeit ist es Ansätze für eine SC-Pädagogik zu entwickeln, die sowohl aus den erziehungswissenschaftlichen Teilbereichen als auch aus dem Konzept des Vaisseau wissenschaftlich aufgearbeitet und hergeleitet werden. Die Entwicklung dieses Konzepts für die Integration von Mehrsprachigkeit durch Sprachenbegegnung an einem informellen Lernort ist ebenfalls Ziel dieser Arbeit. Verknüpft wurden diese beiden Ziele mit einer Besucherevaluation, in deren Kontext Kinder und Jugendliche und Erwachsene befragt wurden. Basierend auf den Resultaten der Evaluation und der Literaturanalyse konnten Kennzeichen einer Science-Center- Pädagogik sowie Kennzeichen eines informellen Mehrsprachigkeitskonzepts formuliert werden.