Refine
Year of publication
Document Type
- ResearchPaper (91)
- Report (67)
- Diploma Thesis (58)
- Part of a Book (41)
- Doctoral Thesis (37)
- Article (19)
- Part of Proceeding (14)
- Working Paper (14)
- Book (9)
- Other (7)
Keywords
- Informatik (18)
- Kultur (15)
- Schule (12)
- Deutschland (10)
- Export (10)
- Produktivität (9)
- Unternehmen (9)
- Computer (7)
- Exports (7)
- Germany (7)
Institute
- Frühere Fachbereiche (364) (remove)
Bilder und Worte sind kulturelle Errungenschaften beträchtlicher Erfindungshöhe. Beide legen einen Ausschnitt des Interesses fest, beide isolieren semantische Elemente aus dem komplexen Strom kommunikativer Akte. Doch hat in Hinblick auf Indizierung die Erfindung von Wörtern einen besonderen Vorteil den Bildern gegenüber: es gibt nur endlich viele von ihnen, die auf einen bestimmten Begriff verweisen, es können Lexika geschrieben werden, die diesen Zusammenhang kodifizieren, und diese Lexika können alphabetisch geordnet sein, so die Brücke zwischen der Semantik und dem Berechenbaren schlagend.
Die vorliegende Dissertation wendet ein theoretisches Modell zum Zusammenhang zwischen Wirtschafts- und Umweltleistung auf existierende und eigene empirische Untersuchungen an. Die auf Basis des Modells formulierten Hypothesen werden mit eigenen empirischen Daten aus Europa insbesondere mit Bezug auf betriebliche Umweltstrategien und auf input-orientierten bzw. output-orientierten Umweltschutz untersucht. Dies ermöglicht insbesondere eine Bewertung des Einflusses der Strategiewahl. Die empirische Untersuchung basiert auf zwei unterschiedlichen Datensätzen. Es werden zunächst empirische Daten zur Umweltleistung von Papierfirmen in verschiedenen Ländern (Niederlande, England, Deutschland und Italien) untersucht, und dabei bei einer output-orientierten Messung der Umweltleistung ein im wesentlichen negativer Zusammenhang zwischen Umwelt- und Wirtschaftsleistung ermittelt. Bei Verwendung eines input-orientierten Maßes für die Umweltleistung wird ein im wesentlichen insignifikanter Zusammenhang gefunden. In der zweiten empirischen Untersuchung wird im Rahmen einer Befragung von Unternehmen des verarbeitenden Gewerbes in England und Deutschland eine Unterscheidung von betrieblichen Umweltstrategien vorgenommen. Dabei erfolgt auf Basis der Kriterien des Environmental Shareholder Value eine Einteilung der Firmen in solche mit wertorientierten Umweltstrategien und solche ohne spezifische Wertorientierung. Auf Basis dieser Unterscheidung wird die aus der zentralen Fragestellung der Dissertation abgeleitete Hypothese untersucht, dass der Zusammenhang zwischen Umweltleistung und Wirtschaftsleistung für Unternehmen mit einer wertorientierten Umweltstrategie positiver ist als für solche ohne spezifische Wertorientierung des Umweltmanagements. Diese Hypothese wird dahingehend bestätigt, dass für Firmen mit wertorientierter Umweltstrategie ein weitgehend positiver Zusammenhang zwischen Umweltleistung und umweltbezogenen Dimensionen der Wettbewerbsfähigkeit nachgewiesen wird.
Ziel der Diplomarbeit ist der Entwurf eines Klassifizierungssystems für Fräswerkzeuge sowie die Entwicklung einer darauf aufbauenden Werkzeugverwaltung.
Evaluation des Lehramtsstudiengangs aus der Sicht der Studierenden an der Universität Lüneburg
Der Aufsatz beschreibt die Erfahrungen im Bereich des Electronic Government (E-Government), die im Rahmen des Forschungsprojektes eGOV gemacht wurden. Die Bedeutung von E-Government als Reform- und Modernisierungskonzept erfreut sich wachsender Beachtung.
Die vorliegende Diplomarbeit entstand im Rahmen eines Praxissemesters in der Marketinggesellschaft für niedersächsische Agrarprodukte in Hannover. Sie beschäftigt sich mit Qualitätssicherungssystemen und Zertifizierung in der Agrarwirtschaft, die durch die Verunsicherung der Verbraucher im Kontext BSE und anderer Lebensmittel-Skandale immer mehr an Bedeutung gewinnen.
Die vorliegende Arbeit beschäftigt sich mit den Ausprägungen des Shareholder Value Konzeptes im Rahmen des Investitionscontrollings.
Forschungsbericht des Fachbereichs Wirtschafts- und Sozialwissenschaften der Universität Lüneburg für 2004
Based on data from a recent representative survey of the adult population in Germany this paper documents that the patterns of variables influencing nascent and infant entrepreneurship are quite similar and broadly in line with our theoretical priors – both types of entrepreneurship are fostered by the width of experience and a role model in the family, and hindered by risk aversion, while being male is a supporting factor. Results of this study using cross section data are in line with conclusions from longitudinal studies for other countries finding that between one in two and one in three nascent entrepreneurs become infant entrepreneurs, and that observed individual characteristics – with the important exception of former experience as an employee in the industry of the new venture - tend to play a minor role only in differentiating who starts and who gives up.
The EU electricity directive (96/92/EC) established the right of the member states to choose between Regulated and Negotiated Third Party Access (RTPA and NTPA). The interest group theory is able to explain whether the introduction of NTPA in Germany had been an interest group equilibrium under the restriction of EU-directive. Using the NTPA associations of electricity power suppliers, network monopolists and industrial consumers negotiated three agreements. The last one (AA VVII+) in December 2001 introduced a market comparison scheme with three structural features: “East-/West-Germany”, “consumption/population density”, and “cable rate”. These features are variables which are supposed to reflect cost differences between network suppliers. The theoretical analysis will derive the hypothesis that this conception allows to introduce a cost irrelevant factor and therefore to increase prices without harming firms which do not hold this factor. This hypothesis could be tested by analyzing the German low and medium voltage network suppliers in 2002 and 2003. Our estimations show that the use of structural feature “East-/West Germany” and “consumption/population density” could be explained by this hypothesis. But because we have no firm specific information about cost differences other explanations could not be excluded: Monopoly prices differ with marginal costs, and regulation could reflect real cost differences. The third structural feature “cable rate” has no influence in low voltage networks, but has an impact on access charges levied in medium voltage networks. This relationship is only given if we use the borderlines given by AA VVII+. Hence, we are not able to reject the interest group theory: The feature “cable rate” was introduced successfully to increase access charges for medium network suppliers which have high cable rates without having higher costs.
Mikroökonometrische Studien mit Firmendaten aus vielen Ländern zeigen, dass exportierende Firmen eine höhere Produktivität aufweisen als Firmen, die lediglich den jeweiligen Binnenmarkt ihres Sitzlandes beliefern, und dass es einen Selbstselektionsprozess der produktiveren Firmen auf Auslandsmärkte gibt, während anderseits Exporttätigkeit nicht unbedingt die Produktivität verbessert. Der vorliegende Beitrag präsentiert empirische Befunde hierzu mit Daten für niedersächsische Industriebetriebe aus den Jahren 1995 bis 2004. Folgende Fragen stehen im Mittelpunkt: Wie unterscheiden sich Produktivität und Produktivitätswachstum zwischen exportierenden und nicht-exportierenden mittelständischen Betrieben? Gehen die produktiveren Betriebe den Schritt auf den Weltmarkt? Führen Exporte zu höherer Produktivität? Die Implikationen der Ergebnisse werden dann vor dem Hintergrund der internationalen Evidenz zum Zusammenhang zwischen Exporttätigkeit und Produktivität diskutiert.
This paper studies the empirical effect of risk classification in the mandatory third-party motor insurance (TPMI) of Germany. We find evidence that inefficient risk categories had been selected in this market while potentially efficient information may have been dismissed. Risk classification did generally not improve the efficiency of contracting or the composition of insureds in this market. These findings can be partly explained by the existence of compulsory fixed coverage and other institutional restraints such as unitary owner insurance in this market.
Weder junge noch alte Firmen sind jeweils homogen. Die wichtigste Entdeckung in mikroökonometrischen Studien ist und bleibt – mit den Worten von James Heckman (2001, p. 674) in seiner Nobelpreis-Rede – „the evidence on the pervasiveness of heterogeneity and diversity in economic life.“ Brown, Hamilton und Medoff (1990, 91) beendeten ihr Buch zu großen und kleinen Firmen mit der Bemerkung: „Sentiment aside, the results of our research suggest a clear message for policies affecting large and small firms: do not judge employers by their size alone.“ Dies gilt hier entsprechend für junge und alte Firmen – auch die dürfen nicht allein nach ihrem Alter beurteilt werden.
This thesis has been designed to improve the understanding of the distribution pattern and transport mechanisms of alkylphenols and the phthalates in the coastal margins, especially the roles of the air-sea exchanges in these processes. Henry’s Law Constants (HLC) were determined for the diastereomeric mixture of NP and t- OP in artificial seawater over given temperature range using a dynamic equilibrium system. An analytical method has been developed for the simultaneous extraction and determination of trace tertiary octylphenol (t-OP), technical nonylphenol isomers (NP), nonylphenol monoethoxylate isomers (NP1EO) and the phthalates in the atmosphere and sea water using gas chromatography-mass spectrometry (GC-MS). The method was successfully applied to the determination of APs and the phthalates in the atmosphere and sea water samples collected from the North Sea. A decreasing concentration profile of NP, t-OP, NP1EO and the phthalates appeared as the distance from the coast increased to the central part of the North Sea. Air-sea exchanges of t-OP, NP, DBP, BBP, and DEHP were estimated using the two-film resistance model based upon relative air-water concentrations. The average of air-sea exchange fluxes indicates a net deposition is occurring. These results suggest that the air–sea vapour exchange is an important process that intervenes in the mass balance of alkylphenols and the phthalates in the North Sea.
Using OLS and quantile regression methods and rich cross-section data sets for western and eastern Germany, this paper demonstrates that the impact of works council presence on labor productivity varies between manufacturing and services, between plants that are or are not covered by collective bargaining, and along the conditional distribution of labor productivity. No productivity effects of works councils are found for the service sector and in manufacturing plants not covered by collective bargaining. Besides demonstrating that it is important to look at evidence based on more than one data set, our empirical findings point to the efficacy of supplementing OLS with quantile regression estimates when investigating the behavior of heterogeneous plants.
Die Befragung Lüneburger Handwerksbetriebe, die im Rahmen eines Projektes zur Regulierung auf dem deutschen Handwerksmarkt in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführt wurde, soll Auswirkungen der Anfang 2004 erfolgten Handwerksreform erfassen. Dabei liegt der Schwerpunkt dieses Artikels auf der Ausbildungsleistung des Handwerks. Die theoretischen Ansätze zur Erklärung betrieblicher Lehrstellenangebote sollen mit den Ergebnissen der ersten Befragungsrunde über die Determinanten der Ausbildungsentscheidung im Lüneburger Handwerk konfrontiert werden.
Die Anfang 2004 durchgeführten Reformen auf dem Handwerksmarkt hatten vor allem eine Erleichterung des Marktzutritts und damit mehr Wettbewerb zum Ziel. Die erwartete Zunahme der Anbieter, durch die es zu sinkenden Preisen und einer steigenden Nachfrage kommen soll, konnte zumindest auf Teilmärkten beobachtet werden. Der Artikel soll anhand von Beispielen des sehr heterogenen Handwerksmarkts aufzeigen, wie sich der Wettbewerb unter der Annahme unterschiedlicher mikroökonomischer Modellkonstellationen (vollständige Konkurrenz, Monopol, monopolistische Konkurrenz und Qualitätswettbewerb) entwickelt. Auf Grundlage einer Ende 2004 in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführten Befragung Lüneburger Handwerksbetriebe sollen dazu erste ökonometrische Auswertungen vorgestellt werden, die sich mit den Auswirkungen der Reform auf die wirtschaftliche Lage der Betriebe befassen.
Für die Neufassung der Handwerksordnung zum 1.1.2004 war die hohe Ausbildungsleistung des Handwerks ein zentrales Argument, die im Falle einer überzogenen Deregulierung einbrechen würde. Folgt man der ökonomischen Theorie werden Handwerksbetriebe ausbilden, wenn der erwartete Nutzen die erwarteten Kosten überwiegt; Ausbildung wird zum unternehmerischen Erfolgsfaktor. Die zweimalige Befragung Lüneburger Handwerksbetriebe, die im Rahmen eines Projektes zur Regulierung auf dem deutschen Handwerksmarkt in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführt wurde, zeigt, dass vor allem die Ausbildungsaktivität selbst zu einer guten bis sehr guten wirtschaftlichen Lage führt bzw. diese verbessert. Allerdings ist dieser Effekt nach relativ kurzer Frist (zwei Jahre oder mehr) wieder verschwunden.
Using panel data from Spain Farinas and Ruano (IJIO 2005) test three hypotheses from a model by Hopenhayn (Econometrica 1992): (H1) Firms that exit in year t were in t-1 less productive than firms that continue to produce in t. (H2) Firms that enter in year t are less productive than incumbent firms in year t. (H3) Surviving firms from an entry cohort were more productive than non-surviving firms from this cohort in the start year. Results for Spain support all three hypotheses. This paper replicates the study using a unique newly available panel data sets for all manufacturing plants from Germany (1995 – 2002). Again, all three hypotheses are supported empirically.
In der öffentlichen Diskussion gilt als allgemein akzeptiert, dass in Deutschland ein Zusammenhang zwischen Firmengröße und Arbeitsplatzdynamik besteht, der sich durch den stilisierten Fakt beschreiben lässt, dass kleine und mittlere Firmen vorwiegend Arbeitsplätze schaffen, während in großen Firmen vor allem Arbeitsplätze abgebaut werden. Der Mittelstand gilt als Jobmotor. Der vorliegende Beitrag zeigt, dass eine Auswertung von Längsschnittdaten für Betriebe Zweifel an dieser einfachen Sichtweise begründen kann. In mittelständischen Betrieben entstehen viele Arbeitsplätze, aber es werden auch viele abgebaut, und dasselbe gilt für Großbetriebe. Wachsende und schrumpfende, neu gegründete und geschlossene Betriebe sind in jeweils erheblichem Umfang in jedem Jahr in allen Größenklassen anzutreffen. Wirtschaftspolitische Maßnahmen mit einer spezifischen Ausrichtung auf bestimmte Firmengrößenklassen lassen sich daher nicht mit einem besonders ausgeprägten Beitrag dieser Firmen zur Beschäftigungsdynamik rechtfertigen.
Text zum Ausstellungskatalog von Franz John: Turing Tables.
Die Ensembles der bildenden Künstlerin Anna Oppermann (1940-1993) zeichnen sich durch ihre Selbstreferentialität, durch ihre vielfältigen Verknüpfungen und Verflechtungen der einzelnen Elemente untereinander aus und bilden so tiefgründige Erfahrungs- und Assoziationsräume. Im Rahmen des Forschungsprojekts "Hypermediale Bild-, Text-, Videoarchive zur Dokumentation komplexer Artefake der Bildenden Kunst" beschäftigt sich seit 1997 eine Gruppe von Wissenschaftlern und Studenten an der Universität Lüneburg mit der strukturerhaltenden Dokumentation einiger wichtiger Ensembles in Bild, Text, innerem Aufbau und wechselseitiger Verknüpfung.
Die unternehmensinterne Kommunikation (IK) ist ein brisantes Thema, das bereits aus vielen Perspektiven heraus beleuchtet wurde. Trotz zahlreicher wissenschaftlicher Bemühungen sich dem Thema anzunehmen, ist bei vielen Mitarbeitern von Unternehmen bis heute eine Unzufriedenheit mit der nach innen gerichteten Kommunikationspolitik der Arbeitgeber zu beobachten. Diese lässt eine mangelnde gegenseitige Bezugnahme von Theorie und Praxis vermuten. In der vorliegenden Arbeit wird zunächst untersucht, was genau sich hinter dem „Modewort“ Kommunikation verbirgt. Dabei werden verschiedene Kommunikationsmodelle vorgestellt, die Hinweise darauf liefern, welche Aspekte beim Entwurf einer zeitgemäßen Kommunikationsauslegung zu berücksichtigen sind. Basierend auf den so gewonnenen Erkenntnissen wird ein eigenes Begriffsverständnis abgeleitet, das darum bemüht ist, der hohen Komplexität des Phänomens gerecht zu werden. Hervorzuheben ist dabei, dass Kommunikation immer gleichzeitig einen äußerlichen und einen innerlichen Prozess beschreibt, der es schwierig macht, diesen zu planen bzw. dessen Wirkung vorauszusagen. Wie gleich zu Beginn der Abhandlung erkennbar wird, weisen eine Reihe von Entwicklungen innerhalb von Unternehmen sowie in deren Umfeld auf die Notwendigkeit hin, dass es auch im internen Kommunikationsbereich zu Veränderungen kommt, die den sich wandelnden Rahmenbedingungen der Informationsprozessierung Rechnung tragen. Hervorzuheben sind in diesem Zusammenhang insbesondere „neue“ Organisationsstrukturen, veränderte Ansprüche von Mitarbeitern an die IK und die Durchdringung dieser mit immer neuen Medien. Diese drei grundsätzlichen Tendenzen stehen in direkter Verbindung zueinander und stellen Unternehmen -genau wie ihre Mitarbeiter- vor neue Herausforderungen. Zunächst wird der Medienbegriff näher untersucht, um ein für den Kommunikationskontext sinnvolles Medienverständnis zu formulieren. Medien werden hier als Hilfsinstanz im Kommunikationsprozess verstanden, die es erlaubt, Informationen auch über räumliche und/oder zeitliche Distanzen hinweg zu verbreiten. Eben diese Errungenschaften der Medien bergen gleichzeitig eine Reihe von Risiken, die nicht zuletzt auch den Erfolg von Kommunikation betreffen, der im internen Unternehmensbezug vor allem darin zu sehen ist, dass beim Empfänger von Informationen eine intendierte Reaktion erfolgt. Diese kann sich in einem bestimmten Verhalten, aber auch veränderten Ansichten und Einstellungen des Rezipienten niederschlagen. Da der Medieneinsatz im Rahmen der IK zunehmend an Bedeutung gewinnt, muss diesem Aspekt besondere Aufmerksamkeit zukommen. Wie unter Rückgriff auf verschiedene Kommunikationsmodelle deutlich gemacht wird, kommt es durch die medienbedingte strukturelle Veränderung der Kommunikation zu einer Reihe von Effekten, die meist mit Restriktionen verbunden sind. Sowohl Informations- als auch Kanalvielfalt werden häufig eingeschränkt und führen zu einer veränderten Kommunikationssituation. Für die Akteure bedeutet dies, dass sie mit einem reduzierten Kommunikationsdesign konfrontiert sind, da besonders nonverbale Informationen nicht selten herausgefiltert werden und/oder die Möglichkeit zur direkten Interaktion eingeschränkt wird. Gerade diese für persönliche Kontakte typischen Merkmale sind jedoch von großer Bedeutung für den Kommunikationserfolg. Das Ziel dieser Arbeit ist folglich, zielführende Mittel und Wege auszuloten, die eben beschriebene Defizite medialer Kontakte ausgleichen können und ihre Potentiale voll nutzbar machen. Eine wichtige Rolle spielen in diesem Zusammenhang die verschiedenen Koordinationsweisen von Unternehmen, die weitgehend auch für Kommunikationsprozesse Gültigkeit besitzen. Durch eine Untersuchung und Gegenüberstellung der einzelnen Koordinationsmechanismen wird deutlich, dass besonders solche bei der Abstimmung zwischenmenschlicher Informationsprozesse viel versprechend sind, die auf Beziehungen gestützt sind, also auf freiwilliger Basis ent- und fortbestehen. Kultur und Vertrauen als Repräsentanten dieser Kategorie werden besonders in jüngerer Zeit immer häufiger von der Organisationswissenschaft aufgegriffen. Sie haben im Vergleich zur zweiten identifizierten Gruppe der autoritätsbasierten Koordinationsweisen (z.B. Anweisungen, Regeln) den Vorteil, einen hohen Grad an Allgemeingültigkeit aufzuweisen, auch wenn dazu eine gewisse Vorlaufzeit zur Sammlung gemeinsamer Erfahrungen nötig ist. Eine ausgeprägte Allgemeingültigkeit ist in der Kommunikation deshalb unentbehrlich, weil eine Vielfalt situationsabhängiger Kontextvariablen das Geschehen bestimmt, von der im konkreten Fall nicht alle einzelnen berücksichtigt werden können, ohne hohen Zeit- und Kostenaufwand zu verursachen. So stellt sich heraus, dass nur der kombinierte Einsatz verschiedener Koordinationsformen wirksam sein kann, wobei Kultur und Vertrauen als beziehungsgeleitete Varianten besondere Betonung finden sollten. Kernpunkt der Dissertation ist deshalb eine Analyse einzelner Komponenten dieser Mechanismen, die unerlässlich ist, um ihre Wirkung im Rahmen der Kommunikationsprozessierung detailliert untersuchen zu können. Hier wird deutlich, dass medienbedingte Informationsdefizite und eingeschränkte Rückkopplungsmöglichkeiten erfolgreich durch eine günstige Ausprägung der verschiedenen Kulturbereiche sowie ein hohes Maß an Vertrauen auf verschiedenen Ebenen ausgeglichen werden können. Auf dem Weg zu einem umfassenden Optimierungskonzept der unternehmensinternen (Medien-)Kommunikation wird als abschließender Schritt ausführlich erläutert, wie sich auf Vertrauen und Kultur als Wegbereiter einer effektiven und effizienten zwischenmenschlichen Kommunikation einwirken lässt. Die diesbezüglich herausgearbeiteten Einflussfaktoren lassen sich zunächst grob in zwei Gruppen unterteilen, von denen die eine als personenbezogene und die andere als zwischenmenschliche Erfolgsdeterminante bezeichnet wird. Es geht hier einerseits um die kommunikationsrelevanten Kompetenzen einzelner Mitarbeiter, die sich auf deren Umgang mit Informationen, Medien sowie anderen Personen beziehen und maßgeblichen Einfluss auf die unternehmensinterne Lage von Vertrauen und Kultur in seinen unterschiedlichen Dimensionen üben. Andererseits sind es die im Rahmen der verschiedenen unternehmensinternen Informationsflussrichtungen erkennbaren Kommunikationsbereiche, die ihrerseits einen wichtigen Beitrag zur gezielten Förderung eines ertragreichen Miteinanders leisten. An dieser Stelle kristallisieren sich vielseitige Wirkungszusammenhänge heraus, die in der Arbeit ausführlich dargelegt werden. Zusammenfassend ist festzuhalten, dass Kommunikation im aufgegriffenen Themenkontext gleichzeitig als wichtiger Erfolgsfaktor und anvisierte Zielgröße in Erscheinung tritt, woran deutlich wird, dass Informationsprozesse in gewisser Weise sowohl das Mittel als auch den Zweck der herausgearbeiteten Optimierungsstrategie darstellen. Festzuhalten ist, dass Kommunikationsprozesse unter besonderer Berücksichtigung des verstärkten medialen Einflusses nur auf der Basis gesunder Beziehungen im Unternehmen gleichzeitig rational als auch effektiv sein können. Interne Beziehungen hängen ihrerseits von den Kompetenzen einzelner Mitarbeiter und dem reibungslosen Informationsfluss sowohl in vertikaler als auch horizontaler Richtung ab. Der Fokus bei der Organisation der IK muss folglich auf der Ausgestaltung günstiger Rahmenbedingungen bzw. Voraussetzungen als Grundlage für erfolgreiche Informationsprozesse liegen, während konkrete Einzelfallregelungen und Anweisungen auf diesem Gebiet eine eher untergeordnete Rolle spielen, da diese Mechanismen die hier auftretenden Problemstellungen nur unzureichend aufgreifen.
Das Auffinden von Bildern im Internet ist immer noch an die Sprache als Verweis- und Indizierungsvehikel gebunden. Der Struktur und dem bildimmanenten Aufbau eines Bildes wird dabei keine Bedeutung beigemessen, die treffsichere Beschreibung und Betitelung des Bildes durch den Publizierenden entscheidet über seine Auffindbarkeit im WWW. Dieser Text setzt sich mit derzeitigen Verweisstrukturen des WWW und ihrer Anwendbarkeit auf Bilder auseinander, zeigt Schwächen auf und stellt mit PeTAL ein im Aufbau befindliches System vor, das Abhilfe schaffen könnte.
Beschrieben wird eine bedeutende Karte des hohen Mittelalters, ihre Herkunft, ihr Gehalt, ihre Struktur, einige Aspekte des von ihr verkörperten Weltbildes sowie ihre Dokumentation mit digitalen Medien.
Diese Publikation setzt sich unter dem Leitmotiv der Digitalisierung mit Aspekten der Wissensvermittlung auseinander. In diesem Beitrag ist also zu klären, was Wissen und die Vermittlung des Wissens mit Computertechnik zu tun haben und des weiteren, wie sich das neue Medium Computer in den delikaten Prozeß einmischt, in dem sich Individuen ein Bild von der Welt machen.
Im Jahr 1991 fand in Lueneburg im dortigen Museum ein Ausstellungsprojekt statt, geplant und realisiert von Lehrenden und Studierenden unserer Universitaet. Anna Oppermann war eine der eingeladenen Kuenstlerinnen und steuerte ihr "Friduttchen"-Ensemble bei. Aus diesem Treffen entstand die Idee, den Versuch zu wagen, ihre hoch komplexe, fragile, vergaengliche Arbeit mit den informatischen und kunstwissenschaftlichen Methoden zu dokumentieren, die wir Gelegenheit hatten, ihr vorzustellen. Im folgenden Jahr entstanden dann in enger Absprache mit der Kuenstlerin erste Versionen eines digitalen Archivs ihres Ensembles "Umarmungen, Unerklaerliches und eine Gedichtzeile von R.M.R." Der Beitrag berichtet ueber das Projekt und die Dokumentation der Arbeit Anna Oppermanns mit dem XML-Standard PeTAL.
Die Paechsche "Figuration der Aufloesung" beschreibt den subkutanen Medienwechsel eines mittelalterlichen Manuskripts von 1239, verdraengt vom Satz mit den beweglichen Lettern eines Johann Gensfleisch zum Gutenberg um 1440 in die Turing-Galaxis der digitalen Medien des zwanzigsten Jahrhunderts. Diese Entwicklung wird hier am Beispiel der Ebstorfer Weltkarte nachvollzogen, die im Digitalen wieder ein adaequates Medium fand.
In diesem Text soll es um Computerkultur gehen, die mit den Begriffen Synthese, Mimesis und Emergenz beschrieben wird. Fuer das Kulturprodukt - vielleicht sogar Kulturindustrie-Produkt - Film ist die Zeit guenstig fuer ein solches Unterfangen, denn wir koennen mittlerweile gut zwanzig Jahre ueberblicken, wir koennen bei der technischen Basis des synthetischen fotorealistischen Computergraphik-Bildes beginnen, sind im Moment in der Hochzeit der Animation in voller mimetischer Pracht angelangt, sehen aber auch schon, was an hochgradig vernetztem Geschehen z. B. als massive online role game Emergenzen zeitigt.
Es geht um die Widerstaendigkeit des Bildes, um das Phaenomen des Unvermoegens von Suchmaschinen, Bilder ebenso effizient aus der Flut des online zugaenglichen Materials zu filtern, wie es bei Texten so exzellent funktioniert. Dabei wird die Pointe sein, dass es sich nicht um ein informatisches Problem handelt, eines, das sich mit raffinierteren Algorithmen und schnelleren Computern in den Griff bekommen liesse, sondern, dass es sich um ein kulturell emergentes Phaenomen handelt, also zum dritten Teil der Triade Synthese - Mimesis - Emergenz gehoert.
Cut,-Copy-and-Paste-Verfahren gelten in Kreisen der Hochkultur immer noch als verschrien und trennen "echte" Kunst eindeutig von Nicht-Kunst. Das Werk Glenn Goulds zeigt beispielhaft, dass solche Festschreibungen nicht immer gelten. Nach dem Ende des auratischen Kunstwerks entsteht keine in und durch die Medien neu vergesellschaftete Kunst, sondern ein neuer Mythos. Nach dem Mythos der High Fidelity folgt der Mythos der Produktionstechniken und ihrer Magier, ein Mythos, an dem Gould - neben seinen Kollegen aus der "populaeren Musik", den Beatles, den Beach Boys und ihren Studioingenieuren - als einer der Ersten kraeftig mitstrickt.
"...as a matter of fact, all that is computerized gained such an amount of reality that nothing could be more mistaken than to call the products of the information technology industry 'virtual'."
Turings Maschine ist, wie man weiß, nie gebaut worden, und dies wäre auch nicht möglich. Dennoch und gerade deswegen kann sie als das Vorbild eines jeden Computers gelten, der bislang gebaut wurde oder es je werden wird. Denn sie, Turings Gedanken- oder Papiermaschine, wurde mit Vorbedacht als ein so simpler Mechanismus entworfen, daß an ihrer prinzipiellen Realisierbarkeit und daran, dass sie ohne menschlichen Eingriff zu funktionieren imstande wäre, kein Zweifel bestehen kann.
Wir haben es bei unserem Thema also mit einem Phantasma zu tun, dem der Beseelung, der Unterstellung von Odem, von Atem, bei toter Materie, bei den Maschinen. Und auch der Eindruck, die Maschinen machten sich nach und nach selbständig, und sie hätten so etwas wie Autonomie, ist natürlich nicht von der Hand zu weisen. Niemand könnte mehr behaupten, etwa das Internet noch zu beherrschen, wie man ein Werkzeug beherrscht. Unbeherrschbarkeit ist ja geradezu ein notwendiges Charakteristikum selbstorganisierender Systeme. Aber ist es denn so, dass wir unsere Computersysteme nicht mehr direkt programmieren können, bleibt uns, wie bei Kontrollversuchen an autopoietischen Systemen nur die Handlungsoption, Bedingungen für Möglichkeiten zu schaffen, und sind wir dann zum Zusehen und Abwarten verurteilt, ob manches dann auch so kommt, wie wir es intendieren?
Es ist zu fragen, ob das Neue am Cyberspace tatsächlich eine gänzlich andere Topographie – jenseits der Grenzen des uns bekannten Raumes – oder eine ganz neue Ökonomie sei, die den Gesetzen des Kapitalismus nicht mehr gehorcht, ob im Cyberspace gar Raum, Zeit und Geld verschwänden, welche die neuen Verhältnisse sind, in denen wir ein Leben führen, das zweifellos tatsächlich ein anderes ist als vor Erfindung der weltumspannend vernetzten Digitalcomputer.
Die Funktion des Archivs ist eine unmögliche. Der Aufgabe, die Archivalien zu bewahren, indem man sie vor dem zerstörerischen Zugriff ihrer Nutzer bewahrt, ist unvereinbar mit der Aufgabe, die eingelagerten Materialien allgemein zugänglich zu machen. Digitale Datenhaltung könnte die Lösung des archivarischen Dilemmas sein, sie ermöglicht so gut wie verlustfreies kopieren und vervielfältigen von Daten. Die sich daraus ergebenden Ewigkeits-Vorstellungen zum Digitalen, legen den Schluß von »digital« auf »Archiv« nahe. Es ist allerdings, um die Pointe vorwegzunehmen, ein Kurz-Schluß, ein Phantasma und kein technisches Faktum, um das es hier geht. Das Digitale, wir werden es noch sehen, ist ein archivarischer Albtraum, und zwar aus vielerlei Gründen, die im Folgenden zur Sprache kommen sollen.
Entlang des Schemas aus den Begriffen Synthese, Mimesis und Emergenz, die auch immer als historische Kategorien begriffen werden, indem sie mit Epochen der Computertechnik parallel laufen, längs dieser Triade soll nun die Kunst zur Sprache kommen. Synthetisch ließen sich die frühen Computergraphiken und die stochastisch fundierten musikalischen Stilübungen Lejaren Hillers erzeugen; mimetischen Verfahren der Vor- und Nachahmung kommt man bei der interaktiven Medienkunst auf die Spur; vernetzt lassen sich künstlerische Experimente auf die Emergenzen des Sozialen ein.
Es dauert nicht mehr lange, dann wird es schwer werden, einen Computer zu fassen zu bekommen, geschweige denn, sich seiner mittels Handgreiflichkeiten zu entledigen. Die Autoren des einschlägigen Buchs über das Quantencomputing »The ultimate zero and one«, Colin Williams und Scott Clearwater, drücken das so aus: »Computers are starting to disappear before our very eyes by becoming part of the fabric of our world.«
Die schiere Quantität ist hier von zentralem Belang – als würde Engels’ ›Dialektik der Natur‹ wieder ihr Haupt aus dem gewiß geglaubten Grabe erheben und erneut fröhlich Quantität in Qualität umschlagen lassen. Es geht um obere und untere Grenzen von Informationsclustern, um die Frage also auch, ob dem Immer-Mehr nicht doch irgendwelche Grenzen gesetzt sind.
Interaktivität stellt fürr Virtualität eine notwendige Bedingung dar, denn zur subjektiven Konstruktion einer Realitätt aus computererzeugten Sinnesdaten muss sich die Feedback-Schleife aus Handlung, Wahrnehmung und darauf reagierender erneuter Handlung eng schließen. Der Text beleuchtet aus Sicht der Kulturinformatik die technikgeschichtlichen und kunsttheoretischen Zusammenhänge zweier Begriffe, die zentral sind für den Diskurs um und die Verortung von interaktiver Computerkunst.
Die Industriebetriebe erwirtschaften knapp ein Viertel des deutschen Bruttoinlandsprodukts. Der Monatsbericht für Betriebe des Verarbeitenden Gewerbes sowie des Bergbaus und der Gewinnung von Steinen und Erden stellt für diese Betriebe eine Reihe wichtiger Daten bereit. Seit Ende 2006 ist dieses Datenmaterial, aufbereitet als Panel für die Jahre 1995 bis 2004 (und für 1995 bis 2002 ergänzt um die Angaben industrieller Kleinbetriebe), für ganz Deutschland in den Forschungsdatenzentren der Statistischen Ämter für Wissenschaftler zugänglich. Dieser Beitrag zeigt an drei Beispielen die Forschungspotenziale dieser Paneldaten für die Aufdeckung von empirischen Fakten, die statistische Überprüfung von theoretischen Hypothesen und die wissenschaftliche Politikberatung auf.
Die Arbeit, von der die Rede sein soll, ist keine historische und keine philologische, sondern eine mediale. Wir haben vor vielen Jahren eine mediale Transformation an der Großen Ebstorferin vorgenommen, eine vom Pergament auf den Computerbildschirm, und dabei eine Zeitspanne der Medientechnik von 700 Jahren überbrückt, dabei die Ära des Buches übersprungen, die so stark unsere heutige Kultur geprägt, vielleicht besser: hervorgebracht, hat.
Wie viele andere Anregungen, so ist auch das Thema »Zeitpfeil« im Gespräch mit Claus Pias entstanden. Irgendwie sind wir auf das Thema gestoßen, inwieweit und ob Computer Maschinen mit Geschichte sind, ob reversibel oder nicht. Meine Physiker-Antwort, dass sie natürlich nicht-reversibel sind, weil sie bei der Arbeit warm werden, also Energie dissipieren, hat mich dann selbst nicht befriedigt, und so kam es, danach zu fragen, welche Arten von Entwicklung, welche Gesetzmäßigkeiten oder Zufälligkeiten benennbar sind, die der digitalen Informationstechnik einen Zeitpfeil, ein Jetzt, Zuvor und ein Danach geben.
Zweifellos gibt es fruchtbare Blickwinkel, unter denen Computermedien im Prozeß einer Sinnproduktion zu betrachten sind. Gerade wegen ihrer semantischen Enthaltsamkeit nämlich – zu der noch mehr und Weiteres zu sagen sein wird – wegen ihrer semantischen Abstinenz also sind Computer überaus wirksam bei der Errichtung symbolischer Ordnungen, treten sie als Apparate und Medien bei der Errichtung von Wissensordnungen in Erscheinung, die ohne sie nicht existieren würden.
Reviewing the development of network access charges in the German electricity market since 2002 reveals significant variation. While some firms continually increased or decreased their access charges, a variety of firms exhibited discontinuous behavior with price changes in both directions. From an economic viewpoint this price setting turbulence is astonishing because grid operators are non-contestable natural monopolists, which in this time period were regulated by Negotiated Third Party Access (NTPA). Depending on the effectiveness or ineffectiveness of NTPA, expected behavior would be either regulated average cost prices or monopoly prices, but not the observed turbulence. Although in 2005 NTPA scheme was replaced by a Regulated Third Party Access (RTPA) scheme with a regulator, an analysis of the factors influencing the price setting behavior within this period offers valuable information for the new regulator and the still discussed new incentive regulation, which is expected to start in 2009. Using multivariate estimations based on firm data covering the years 2000-2005, we test the hypotheses that asymmetric influence of regulatory threat, different cost and price calculation knowledge, strategic use of structural features and the obligation to publish specific access charges have influenced the electricity network access charges in Germany.
Empirische Befunde zeigen, dass exportierende niedersächsische Industriebetriebe produktiver als vergleichbare nicht exportierende Betriebe sind, wobei diese Unterschiede bereits vor dem Exportstart bestehen (also eine Selbstselektion der produktiveren Betriebe auf Exportmärkte stattfindet), während es für Lerneffekte im Zusammenhang mit Exportaktivitäten und daraus folgendem höherem Produktivitätswachstum in exportierenden Betrieben keine Evidenz gibt. Mit neu verfügbaren Paneldaten für deutsche Industriebetriebe und auf der Grundlage der Ergebnisse einer neuen international vergleichenden Studie zeigt dieser Beitrag, dass die Produktivitätsprämie in Niedersachsen so hoch wie im Durchschnitt für den Rest von Westdeutschland, aber höher als für Ostdeutschland ist. Niedersachsen nimmt im internationalen Vergleich damit einen Mittelplatz unter den hier betrachteten Ländern ein. Ein interregionaler bzw. internationaler Vergleich der Größenordnungen der Selektions- und Lerneffekte ist hier allerdings nicht möglich. Zwar zeigt eine Gegenüberstellung der Ergebnisse für Niedersachsen mit denen für das übrige West- bzw. für Ostdeutschland und mit den übrigen EU-Ländern in den meisten Fällen ein Bild ähnlich wie für Niedersachsen, aber die Gruppen der Starter umfassen dabei in der Regel nur wenige Firmen, und die geschätzten Koeffizienten sind sehr häufig statistisch insignifikant, so dass ein quantitativer Vergleich nicht möglich ist.
In der öffentlichen Diskussion in Deutschland wird häufig die These vertreten, dass Arbeitsplätze vorwiegend in kleinen und mittleren Firmen geschaffen werden, während die großen Firmen vor allem Arbeitsplätze abbauen. Eine empirische Überprüfung für den Zeitraum 1999 bis 2005 mit Daten aller west- und ostdeutschen Betriebe, die mindestens einen sozialversicherungspflichtig Beschäftigten haben, zeigt, dass die These vom alleinigen „Jobmotor Mittelstand“ viel zu undifferenziert ist. In mittelständischen Unternehmen werden zwar überproportional viele Arbeitsplätze geschaffen, aber auch überproportional viele abgebaut. Großbetriebe mit 250 und mehr Beschäftigten weisen dagegen sowohl bei der Schaffung als auch beim Abbau von Arbeitsplätzen geringere Werte auf als es ihrem Beschäftigungsanteil entspräche. Wirtschaftspolitische Maßnahmen, die sich an der Zuordnung eines Unternehmens zu einer Größenklasse orientieren, lassen sich somit nicht mit einem besonders ausgeprägten Beitrag der Firmen aus dieser Größenklasse zum Beschäftigungswachstum rechtfertigen.