Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (498)
- Research Paper (150)
- Bachelorarbeit (93)
- Teil eines Buches (Kapitel) (88)
- Bericht (76)
- Diplomarbeit (65)
- Masterarbeit (64)
- Wissenschaftlicher Artikel (55)
- Buch (Monographie) (49)
- Arbeitspapier (44)
Sprache
- Deutsch (883)
- Englisch (377)
- Mehrsprachig (4)
- Französisch (1)
Schlagworte
- Nachhaltigkeit (53)
- Informatik (19)
- Biodiversität (16)
- Deutschland (16)
- Kultur (16)
- Personalpolitik (15)
- Schule (15)
- Export (14)
- Lehrkräfte (14)
- Management (14)
Institut
- Frühere Fachbereiche (364)
- Fakultät Nachhaltigkeit (165)
- Fakultät Wirtschaftswissenschaften (114)
- Fakultät Bildung (85)
- BWL (64)
- Fakultät Kulturwissenschaften (58)
- Psychologie/Wirtschaftspsychologie (49)
- Institut für Nachhaltigkeitssteuerung (INSUGO) (31)
- Institut für Ökologie (IE) (31)
- Philosophie (28)
Ein wesentlicher Beitrag zur rationalen Verwendung unserer Energieresourcen kann durch die konsequente Nutzung diskontinuierlich anfallender Wärmeenergie erbracht werden, was aufgrund der zeitlichen Verschiebung von Wärmeangeboten und Wärmebedarf auf direktem Wege oft nicht möglich ist. Dies gilt sowohl für die Nutzung anfallender Abwärme aus Kühlprozessen als auch den ökonomiaschen Einsatz von Solarenergie. Dazu ist erforderlich, mit Hilfe eines effizienten Energiespreichers den überschüssigen Energieanfall zu verlagern.
Bilder und Worte sind kulturelle Errungenschaften beträchtlicher Erfindungshöhe. Beide legen einen Ausschnitt des Interesses fest, beide isolieren semantische Elemente aus dem komplexen Strom kommunikativer Akte. Doch hat in Hinblick auf Indizierung die Erfindung von Wörtern einen besonderen Vorteil den Bildern gegenüber: es gibt nur endlich viele von ihnen, die auf einen bestimmten Begriff verweisen, es können Lexika geschrieben werden, die diesen Zusammenhang kodifizieren, und diese Lexika können alphabetisch geordnet sein, so die Brücke zwischen der Semantik und dem Berechenbaren schlagend.
Evaluation des Lehramtsstudiengangs aus der Sicht der Studierenden an der Universität Lüneburg
The EU electricity directive (96/92/EC) established the right of the member states to choose between Regulated and Negotiated Third Party Access (RTPA and NTPA). The interest group theory is able to explain whether the introduction of NTPA in Germany had been an interest group equilibrium under the restriction of EU-directive. Using the NTPA associations of electricity power suppliers, network monopolists and industrial consumers negotiated three agreements. The last one (AA VVII+) in December 2001 introduced a market comparison scheme with three structural features: “East-/West-Germany”, “consumption/population density”, and “cable rate”. These features are variables which are supposed to reflect cost differences between network suppliers. The theoretical analysis will derive the hypothesis that this conception allows to introduce a cost irrelevant factor and therefore to increase prices without harming firms which do not hold this factor. This hypothesis could be tested by analyzing the German low and medium voltage network suppliers in 2002 and 2003. Our estimations show that the use of structural feature “East-/West Germany” and “consumption/population density” could be explained by this hypothesis. But because we have no firm specific information about cost differences other explanations could not be excluded: Monopoly prices differ with marginal costs, and regulation could reflect real cost differences. The third structural feature “cable rate” has no influence in low voltage networks, but has an impact on access charges levied in medium voltage networks. This relationship is only given if we use the borderlines given by AA VVII+. Hence, we are not able to reject the interest group theory: The feature “cable rate” was introduced successfully to increase access charges for medium network suppliers which have high cable rates without having higher costs.
This paper studies the empirical effect of risk classification in the mandatory third-party motor insurance (TPMI) of Germany. We find evidence that inefficient risk categories had been selected in this market while potentially efficient information may have been dismissed. Risk classification did generally not improve the efficiency of contracting or the composition of insureds in this market. These findings can be partly explained by the existence of compulsory fixed coverage and other institutional restraints such as unitary owner insurance in this market.
Die Befragung Lüneburger Handwerksbetriebe, die im Rahmen eines Projektes zur Regulierung auf dem deutschen Handwerksmarkt in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführt wurde, soll Auswirkungen der Anfang 2004 erfolgten Handwerksreform erfassen. Dabei liegt der Schwerpunkt dieses Artikels auf der Ausbildungsleistung des Handwerks. Die theoretischen Ansätze zur Erklärung betrieblicher Lehrstellenangebote sollen mit den Ergebnissen der ersten Befragungsrunde über die Determinanten der Ausbildungsentscheidung im Lüneburger Handwerk konfrontiert werden.
Für die Neufassung der Handwerksordnung zum 1.1.2004 war die hohe Ausbildungsleistung des Handwerks ein zentrales Argument, die im Falle einer überzogenen Deregulierung einbrechen würde. Folgt man der ökonomischen Theorie werden Handwerksbetriebe ausbilden, wenn der erwartete Nutzen die erwarteten Kosten überwiegt; Ausbildung wird zum unternehmerischen Erfolgsfaktor. Die zweimalige Befragung Lüneburger Handwerksbetriebe, die im Rahmen eines Projektes zur Regulierung auf dem deutschen Handwerksmarkt in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführt wurde, zeigt, dass vor allem die Ausbildungsaktivität selbst zu einer guten bis sehr guten wirtschaftlichen Lage führt bzw. diese verbessert. Allerdings ist dieser Effekt nach relativ kurzer Frist (zwei Jahre oder mehr) wieder verschwunden.
Text zum Ausstellungskatalog von Franz John: Turing Tables.
Die Ensembles der bildenden Künstlerin Anna Oppermann (1940-1993) zeichnen sich durch ihre Selbstreferentialität, durch ihre vielfältigen Verknüpfungen und Verflechtungen der einzelnen Elemente untereinander aus und bilden so tiefgründige Erfahrungs- und Assoziationsräume. Im Rahmen des Forschungsprojekts "Hypermediale Bild-, Text-, Videoarchive zur Dokumentation komplexer Artefake der Bildenden Kunst" beschäftigt sich seit 1997 eine Gruppe von Wissenschaftlern und Studenten an der Universität Lüneburg mit der strukturerhaltenden Dokumentation einiger wichtiger Ensembles in Bild, Text, innerem Aufbau und wechselseitiger Verknüpfung.
Das Auffinden von Bildern im Internet ist immer noch an die Sprache als Verweis- und Indizierungsvehikel gebunden. Der Struktur und dem bildimmanenten Aufbau eines Bildes wird dabei keine Bedeutung beigemessen, die treffsichere Beschreibung und Betitelung des Bildes durch den Publizierenden entscheidet über seine Auffindbarkeit im WWW. Dieser Text setzt sich mit derzeitigen Verweisstrukturen des WWW und ihrer Anwendbarkeit auf Bilder auseinander, zeigt Schwächen auf und stellt mit PeTAL ein im Aufbau befindliches System vor, das Abhilfe schaffen könnte.
Beschrieben wird eine bedeutende Karte des hohen Mittelalters, ihre Herkunft, ihr Gehalt, ihre Struktur, einige Aspekte des von ihr verkörperten Weltbildes sowie ihre Dokumentation mit digitalen Medien.
Diese Publikation setzt sich unter dem Leitmotiv der Digitalisierung mit Aspekten der Wissensvermittlung auseinander. In diesem Beitrag ist also zu klären, was Wissen und die Vermittlung des Wissens mit Computertechnik zu tun haben und des weiteren, wie sich das neue Medium Computer in den delikaten Prozeß einmischt, in dem sich Individuen ein Bild von der Welt machen.
Im Jahr 1991 fand in Lueneburg im dortigen Museum ein Ausstellungsprojekt statt, geplant und realisiert von Lehrenden und Studierenden unserer Universitaet. Anna Oppermann war eine der eingeladenen Kuenstlerinnen und steuerte ihr "Friduttchen"-Ensemble bei. Aus diesem Treffen entstand die Idee, den Versuch zu wagen, ihre hoch komplexe, fragile, vergaengliche Arbeit mit den informatischen und kunstwissenschaftlichen Methoden zu dokumentieren, die wir Gelegenheit hatten, ihr vorzustellen. Im folgenden Jahr entstanden dann in enger Absprache mit der Kuenstlerin erste Versionen eines digitalen Archivs ihres Ensembles "Umarmungen, Unerklaerliches und eine Gedichtzeile von R.M.R." Der Beitrag berichtet ueber das Projekt und die Dokumentation der Arbeit Anna Oppermanns mit dem XML-Standard PeTAL.
Die Paechsche "Figuration der Aufloesung" beschreibt den subkutanen Medienwechsel eines mittelalterlichen Manuskripts von 1239, verdraengt vom Satz mit den beweglichen Lettern eines Johann Gensfleisch zum Gutenberg um 1440 in die Turing-Galaxis der digitalen Medien des zwanzigsten Jahrhunderts. Diese Entwicklung wird hier am Beispiel der Ebstorfer Weltkarte nachvollzogen, die im Digitalen wieder ein adaequates Medium fand.
In diesem Text soll es um Computerkultur gehen, die mit den Begriffen Synthese, Mimesis und Emergenz beschrieben wird. Fuer das Kulturprodukt - vielleicht sogar Kulturindustrie-Produkt - Film ist die Zeit guenstig fuer ein solches Unterfangen, denn wir koennen mittlerweile gut zwanzig Jahre ueberblicken, wir koennen bei der technischen Basis des synthetischen fotorealistischen Computergraphik-Bildes beginnen, sind im Moment in der Hochzeit der Animation in voller mimetischer Pracht angelangt, sehen aber auch schon, was an hochgradig vernetztem Geschehen z. B. als massive online role game Emergenzen zeitigt.
Es geht um die Widerstaendigkeit des Bildes, um das Phaenomen des Unvermoegens von Suchmaschinen, Bilder ebenso effizient aus der Flut des online zugaenglichen Materials zu filtern, wie es bei Texten so exzellent funktioniert. Dabei wird die Pointe sein, dass es sich nicht um ein informatisches Problem handelt, eines, das sich mit raffinierteren Algorithmen und schnelleren Computern in den Griff bekommen liesse, sondern, dass es sich um ein kulturell emergentes Phaenomen handelt, also zum dritten Teil der Triade Synthese - Mimesis - Emergenz gehoert.
Cut,-Copy-and-Paste-Verfahren gelten in Kreisen der Hochkultur immer noch als verschrien und trennen "echte" Kunst eindeutig von Nicht-Kunst. Das Werk Glenn Goulds zeigt beispielhaft, dass solche Festschreibungen nicht immer gelten. Nach dem Ende des auratischen Kunstwerks entsteht keine in und durch die Medien neu vergesellschaftete Kunst, sondern ein neuer Mythos. Nach dem Mythos der High Fidelity folgt der Mythos der Produktionstechniken und ihrer Magier, ein Mythos, an dem Gould - neben seinen Kollegen aus der "populaeren Musik", den Beatles, den Beach Boys und ihren Studioingenieuren - als einer der Ersten kraeftig mitstrickt.
"...as a matter of fact, all that is computerized gained such an amount of reality that nothing could be more mistaken than to call the products of the information technology industry 'virtual'."
Turings Maschine ist, wie man weiß, nie gebaut worden, und dies wäre auch nicht möglich. Dennoch und gerade deswegen kann sie als das Vorbild eines jeden Computers gelten, der bislang gebaut wurde oder es je werden wird. Denn sie, Turings Gedanken- oder Papiermaschine, wurde mit Vorbedacht als ein so simpler Mechanismus entworfen, daß an ihrer prinzipiellen Realisierbarkeit und daran, dass sie ohne menschlichen Eingriff zu funktionieren imstande wäre, kein Zweifel bestehen kann.
Wir haben es bei unserem Thema also mit einem Phantasma zu tun, dem der Beseelung, der Unterstellung von Odem, von Atem, bei toter Materie, bei den Maschinen. Und auch der Eindruck, die Maschinen machten sich nach und nach selbständig, und sie hätten so etwas wie Autonomie, ist natürlich nicht von der Hand zu weisen. Niemand könnte mehr behaupten, etwa das Internet noch zu beherrschen, wie man ein Werkzeug beherrscht. Unbeherrschbarkeit ist ja geradezu ein notwendiges Charakteristikum selbstorganisierender Systeme. Aber ist es denn so, dass wir unsere Computersysteme nicht mehr direkt programmieren können, bleibt uns, wie bei Kontrollversuchen an autopoietischen Systemen nur die Handlungsoption, Bedingungen für Möglichkeiten zu schaffen, und sind wir dann zum Zusehen und Abwarten verurteilt, ob manches dann auch so kommt, wie wir es intendieren?
Es ist zu fragen, ob das Neue am Cyberspace tatsächlich eine gänzlich andere Topographie – jenseits der Grenzen des uns bekannten Raumes – oder eine ganz neue Ökonomie sei, die den Gesetzen des Kapitalismus nicht mehr gehorcht, ob im Cyberspace gar Raum, Zeit und Geld verschwänden, welche die neuen Verhältnisse sind, in denen wir ein Leben führen, das zweifellos tatsächlich ein anderes ist als vor Erfindung der weltumspannend vernetzten Digitalcomputer.
Die Funktion des Archivs ist eine unmögliche. Der Aufgabe, die Archivalien zu bewahren, indem man sie vor dem zerstörerischen Zugriff ihrer Nutzer bewahrt, ist unvereinbar mit der Aufgabe, die eingelagerten Materialien allgemein zugänglich zu machen. Digitale Datenhaltung könnte die Lösung des archivarischen Dilemmas sein, sie ermöglicht so gut wie verlustfreies kopieren und vervielfältigen von Daten. Die sich daraus ergebenden Ewigkeits-Vorstellungen zum Digitalen, legen den Schluß von »digital« auf »Archiv« nahe. Es ist allerdings, um die Pointe vorwegzunehmen, ein Kurz-Schluß, ein Phantasma und kein technisches Faktum, um das es hier geht. Das Digitale, wir werden es noch sehen, ist ein archivarischer Albtraum, und zwar aus vielerlei Gründen, die im Folgenden zur Sprache kommen sollen.
Entlang des Schemas aus den Begriffen Synthese, Mimesis und Emergenz, die auch immer als historische Kategorien begriffen werden, indem sie mit Epochen der Computertechnik parallel laufen, längs dieser Triade soll nun die Kunst zur Sprache kommen. Synthetisch ließen sich die frühen Computergraphiken und die stochastisch fundierten musikalischen Stilübungen Lejaren Hillers erzeugen; mimetischen Verfahren der Vor- und Nachahmung kommt man bei der interaktiven Medienkunst auf die Spur; vernetzt lassen sich künstlerische Experimente auf die Emergenzen des Sozialen ein.
Es dauert nicht mehr lange, dann wird es schwer werden, einen Computer zu fassen zu bekommen, geschweige denn, sich seiner mittels Handgreiflichkeiten zu entledigen. Die Autoren des einschlägigen Buchs über das Quantencomputing »The ultimate zero and one«, Colin Williams und Scott Clearwater, drücken das so aus: »Computers are starting to disappear before our very eyes by becoming part of the fabric of our world.«
Die schiere Quantität ist hier von zentralem Belang – als würde Engels’ ›Dialektik der Natur‹ wieder ihr Haupt aus dem gewiß geglaubten Grabe erheben und erneut fröhlich Quantität in Qualität umschlagen lassen. Es geht um obere und untere Grenzen von Informationsclustern, um die Frage also auch, ob dem Immer-Mehr nicht doch irgendwelche Grenzen gesetzt sind.
Interaktivität stellt fürr Virtualität eine notwendige Bedingung dar, denn zur subjektiven Konstruktion einer Realitätt aus computererzeugten Sinnesdaten muss sich die Feedback-Schleife aus Handlung, Wahrnehmung und darauf reagierender erneuter Handlung eng schließen. Der Text beleuchtet aus Sicht der Kulturinformatik die technikgeschichtlichen und kunsttheoretischen Zusammenhänge zweier Begriffe, die zentral sind für den Diskurs um und die Verortung von interaktiver Computerkunst.
Die Arbeit, von der die Rede sein soll, ist keine historische und keine philologische, sondern eine mediale. Wir haben vor vielen Jahren eine mediale Transformation an der Großen Ebstorferin vorgenommen, eine vom Pergament auf den Computerbildschirm, und dabei eine Zeitspanne der Medientechnik von 700 Jahren überbrückt, dabei die Ära des Buches übersprungen, die so stark unsere heutige Kultur geprägt, vielleicht besser: hervorgebracht, hat.
Wie viele andere Anregungen, so ist auch das Thema »Zeitpfeil« im Gespräch mit Claus Pias entstanden. Irgendwie sind wir auf das Thema gestoßen, inwieweit und ob Computer Maschinen mit Geschichte sind, ob reversibel oder nicht. Meine Physiker-Antwort, dass sie natürlich nicht-reversibel sind, weil sie bei der Arbeit warm werden, also Energie dissipieren, hat mich dann selbst nicht befriedigt, und so kam es, danach zu fragen, welche Arten von Entwicklung, welche Gesetzmäßigkeiten oder Zufälligkeiten benennbar sind, die der digitalen Informationstechnik einen Zeitpfeil, ein Jetzt, Zuvor und ein Danach geben.
Zweifellos gibt es fruchtbare Blickwinkel, unter denen Computermedien im Prozeß einer Sinnproduktion zu betrachten sind. Gerade wegen ihrer semantischen Enthaltsamkeit nämlich – zu der noch mehr und Weiteres zu sagen sein wird – wegen ihrer semantischen Abstinenz also sind Computer überaus wirksam bei der Errichtung symbolischer Ordnungen, treten sie als Apparate und Medien bei der Errichtung von Wissensordnungen in Erscheinung, die ohne sie nicht existieren würden.
Reviewing the development of network access charges in the German electricity market since 2002 reveals significant variation. While some firms continually increased or decreased their access charges, a variety of firms exhibited discontinuous behavior with price changes in both directions. From an economic viewpoint this price setting turbulence is astonishing because grid operators are non-contestable natural monopolists, which in this time period were regulated by Negotiated Third Party Access (NTPA). Depending on the effectiveness or ineffectiveness of NTPA, expected behavior would be either regulated average cost prices or monopoly prices, but not the observed turbulence. Although in 2005 NTPA scheme was replaced by a Regulated Third Party Access (RTPA) scheme with a regulator, an analysis of the factors influencing the price setting behavior within this period offers valuable information for the new regulator and the still discussed new incentive regulation, which is expected to start in 2009. Using multivariate estimations based on firm data covering the years 2000-2005, we test the hypotheses that asymmetric influence of regulatory threat, different cost and price calculation knowledge, strategic use of structural features and the obligation to publish specific access charges have influenced the electricity network access charges in Germany.
Die in dieser Sammlung zusammengetragenen Texte reicht der Autor als kumulative Habilitationsleistung bei der Fakultät »Umwelt und Technik« der Leuphana Universität Lüneburg zum Zwecke des Erwerbs der Lehrbefugnis für die Fachrichtung »Informatik/Digitale Medien« ein. Die Texte sind alle in den letzten zehn Jahren veröffentlicht worden, meist im Druck, einige online. Als Einzelveröffentlichungen behandeln sie jeweils separate Themen, deshalb werden ihr Ursprung, der Gesamtzusammenhang und die daraus entwickelbaren Perspektiven für Forschung und Lehre an der Leuphana Universität Lüneburg im Folgenden umrissen.
Der Seehund wird in Monitoring-Programmen zum Zustand des Ökosystems Wattenmeer (z.B. TMAP) als ein Indikatororganismus genutzt. Aufgrund der Position im Nahrungsnetz (Top-Prädatoren) und der langen Lebensspanne sind Seehunde besonders stark mit Schadstoffen belastet, u.a. mit Polychlorierten Biphenylen (PCB) und Perfluoroctansulfonat (PFOS). Zahlreiche Studien deuten darauf hin, dass die Schadstoffbelastung die Gesundheit der Seehunde beeinträchtigt. Das Ziel unserer Arbeitsgruppe ist die Identifizierung neuer Biomarker, die im Lebendmonitoring von Seehunden eingesetzt werden können. Ziel der vorliegenden Arbeit war die Ausarbeitung und Etablierung eines Zellkulturmodells, welches in weiterführenden Arbeiten die Identifizierung der Biomarker ermöglicht. Als Biomarker sollen Proteinmuster verwendet werden, die eine Früherkennung von schadstoffbedingten Veränderungen in der Seehundpopulation ermöglichen. Da Hepatozyten an der Metabolisierung von Xenobiotika beteiligt sind, werden sie für das Zellkulturmodell verwendet. Von den Hepatozyten werden in vivo Plasmaproteine synthetisiert, die bei in vitro Experimenten im Zellkulturmedium nachweisbar sind. Diese Proteine könnten anschließend als Biomarker in einem Lebendmonitoring (Blutproben) an Seehunden eingesetzt werden. Für das Zellkulturmodell wurden primäre Seehund-Hepatozyten mit Schadstoffen (PCB, PFOS) in umweltrelevanten Konzentrationen inkubiert. Als Kontrolle dienten Zellen, die nur mit dem jeweiligen Lösungsmittel inkubiert wurden (Isooctan für PCB; DMSO für PFOS). Da in der Literatur bisher keine Isolierung von Hepatozyten aus marinen Säugern beschrieben wurde, musste eine geeignete Isolierungsmethode etabliert werden. Die Methode musste die Isolierung vitaler Hepatozyten aus bereits verstorbenen Tieren in ausreichend hoher Menge ermöglichen. Es wurden verschiedene Isolierungsmethoden getestet von denen sich nur die Leberbiopsie Perfusion eignete. Sämtliche Parameter müssen mit den sich anschließenden Proteomanalysen kompatibel sein. Die Hepatozyten müssen ihre Vitalität nach der Isolierung und während der Kultivierung beibehalten. Zur Analyse der Vitalität wurden der XTT- und LDH-Test (allgemeiner Stoffwechsel und Membranintegrität) angewendet sowie die Harnstoffsynthese (leberspezifischer Stoffwechsel) beurteilt. Mit Hilfe der Zelltests wurde die Vitalität der Hepatozyten im Verlauf einer dreitägigen Kultivierung untersucht und der Einfluss einer Schadstoffinkubation auf die Zellvitalität analysiert. Die Schadstoffe sollen in den eingesetzten Konzentrationen keinen Einfluss auf die Zellvitalität oder Morphologie haben. Die Ergebnisse aus den Vitalitätstests zeigten, dass die verwendeten PCB-Konzentrationen keinen signifikanten Einfluss auf die Vitalität hatten. Eine Aussage zum Einfluss einer PFOSInkubation auf die Zellen (XTT- und Harnstoff-Test) konnte nicht gemacht werden, da die DMSO-Konzentration in den Proben zu hoch gewählt wurde. Die PFOSInkubation hatte keinen signifikanten Einfluss auf die Membranintegrität. Anhand erster Testreihen, die in unserer Arbeitsgruppe realisiert wurden, konnte die Funktionalität des Zellkulturmodells überprüft werden. Hierzu wurden Proteomanalysen von Seehund-Hepatozyten durchgeführt, die mit PCB inkubiert wurden. Erste Ergebnisse zeigten, dass es zu einer signifikanten Hochregulierung der Expressionslevel einiger Proteine kam, die am Schadstoffabbau beteiligt sind. In der vorliegenden Arbeit wurde erfolgreich ein Zellkulturmodell mit primären Seehund-Hepatozyten entwickelt, welches die Identifizierung neuer Biomarker für Seehunde ermöglicht.
Fragestellung und Kontext: Inwieweit lässt Strafe im Rahmen einer pädagogischen Intervention in der öffentlichen Erziehung heute erziehungswissenschaftlich und rechtlich Legitimieren? Im Verlauf der 70er und 90er-Jahre verschwand der Begriff ´Strafe´ weitgehend aus der erziehungswissenschaftlichen Diskussion. Rückblickend lässt sich nachvollziehen, dass u.a. Impulse aus der ´Stigmatisierungsdebatte´ wie auch die Erkenntnisse, die unter dem Stichwort ´Schwarze Pädagogik´ Eingang in die Debatte fanden. Parallel etablierten sich engagierte Initiativen, antiautoritär mit Kindern umzugehen, gar, ´antipädagogisch´ ganz auf Erziehung zu verzichten. Formeln wie ´Therapie statt Strafe´ initiierten bis in das Strafrecht hinein den Willen, Begriff und Praxis des Strafens zu überwinden. Der bisherigen Debatte, im historischen Zusammenhang sind zwei Aspekte bemerkenswert: Erstens: Das, was objektiv als Strafe gewollt war oder subjektiv so empfunden wurde, hat nicht aufgehört zu existieren. Das heißt: Auch wenn der Begriff Strafe (Sanktion, Konsequenz, sachlogische Folge) tabuisiert und aus dem Fachvokabular gestrichen wurde, wird im Erziehungsalltag weiterhin gestraft, wie die Studie von Günder, Reidegeld, Müller-Schlotmann (2009), treffend nachweisen. Zweitens: Es hat bisher keine systematische Auseinandersetzung in den Erziehungswissenschaften mit dem Phänomen ´Strafe´ gegeben. Erst im Jahr 2013 (ZJJ Heft 3/2013 und 01/2014) gab es einen Versuch aus aktueller Perspektive ´Erziehung´ und ´Strafen´ mehrperspektivisch zu diskutieren. In diese Lücke (Theorie und Handlungslogik) stößt die vorliegende Untersuchung. Auf der Grundlage eines historischen Überblicks wird ein Ansatz entwickelt, mit der Intention und der Fragestellung, wie das Strafproblem in der Erziehung, zumal der öffentlichen, fachlich beantwortet (gelöst) werden könnte. In der interdisziplinär angelegten Untersuchung, ausgehend von der Beobachtung, das Strafe ein fester Bestandteil der Erziehung sei. Dieser Logik selbstverständlichen, ja fraglosen Verhaltens wird in der vorliegenden Erörterung nachgegangen. Zu klären ist die Bedeutung sowie der Einfluss der ´Alltagstheorien´ auf mögliche punitive Tendenzen im Erziehungsalltag, welche durch die oben erwähnte Studie aus dem 2009 zweifelsfrei begründet werden. Diesen Ergebnissen soll mit Hilfe wissenschaftlicher Theorien entgegengetreten werden. Aus dem dafür in Betracht kommenden Bezugswissen nimmt die Erziehungswissenschaft und Psychologie einen zentralen Stellenwert ein. Des Weiteren wird die Bedeutung des Rechts: Grundgesetz, Familienrecht sowie das SGB VIII betont. Zu klären ist, welche Sanktionen noch vom gegenwärtigen Recht und dem Stand der Fachdiskussion in der Pädagogik gedeckt seien. Das aus dem gesellschaftspolitischem Erziehungsauftrag und den Hilfen zur Erziehung (§ 27 SGB VIII) ablesbar normative Erziehungsverständnis, sei durch einen hohen Anspruch an Funktionalität, Disziplin und soziale Anpassung geprägt. Die Handhabung des ´Strafproblems in der Pädagogik´ sei, trotz der Reformen in den 1980er und 1990er Jahren nach wie vor wesentlich von Alltagstheorien geprägt (Luedtke 2009). Design: Die vorliegende Erörterung ist eine interdisziplinär angelegte, literaturgestützte Untersuchung, die sich ausschließlich auf vorhandenes Wissen/Theorien bezieht.
In der vorliegenden kumulativen Dissertation geht es um das Selbstkonzept von Schülerinnen und Schülern im Kontext schulischer Inklusionsprozesse und aktueller gesellschaftlicher Entwicklungen. Für empirische Studien aus dem Bereich der Selbstkonzept- und Inklusionsforschung stellt die valide und zielgruppengerechte Messung des Selbstkonzepts eine wichtige Voraussetzung dar. In der ersten und dritten Studie wird daher die Entwicklung und Validierung eines deutschsprachigen Messinstruments zur Erfassung des Selbstkonzepts bei Jugendlichen der Sekundarstufe I (Studie I) und bei Grundschülern (Studie III) beschrieben. Es wurden Testanalysen auf der Datenbasis einer Stichprobe von N = 1 907 Schülerinnen und Schülern verschiedener Schulformen (n = 294 Förderschülerinnen und Schüler) und N = 416 Kindern der 4ten Klassenstufe durchgeführt. Konfirmatorische Faktorenanalysen bestätigten die postulierte achtfaktorielle Struktur. Die Messinvarianz über Geschlecht und Schulform konnte belegt werden. Zusammenhänge mit Außenkriterien wiesen auf eine zufriedenstellende Validität der Selbstkonzeptskalen hin. Die Reliabilitätsschätzungen fielen allgemein gut aus. In der zweiten Studie wurde empirisch überprüft, inwieweit sich multiple Selbstkonzeptfacetten von Schülerinnen und Schülern mit und ohne sonderpädagogischen Förderbedarf im Schwerpunkt Lernen (SPF-L) in Abhängigkeit von der Beschulungsart unterscheiden. Zusätzlich wurden das allgemeine und das schulische Wohlbefinden von Schülerinnen und Schülern mithilfe quantitativer und qualitativer Befragungen, im Sinne eines Mixed-Method-Ansatzes, erfasst. Inklusiv beschulte Schülerinnen und Schüler mit SPF-L wiesen ein deutlich schlechteres akademisches Selbstkonzept auf als die Jugendlichen an Förderschulen und die Schülerinnen und Schüler ohne SPF. Für das generelle Selbstwertgefühl, Aussehen und die sozialen Selbstkonzeptfacetten Eltern- und Mitschülerbeziehung zeigten sich keine Unterschiede. Jugendliche mit SPF-L hatten unabhängig von der Beschulungsform ein besseres Selbstkonzept der Lehrerbeziehung. In der vierten Studie wurde anhand einer Stichprobe von N = 2 950 Schülerinnen und Schülern verschiedener Schulformen untersucht, welche Facetten des Selbstkonzepts die wichtigsten Prädiktoren für ein positives generelles Selbstwertgefühl bei Jugendlichen darstellen und ob es Unterschiede hinsichtlich des Geschlechts und der Schulform gibt. Die Ergebnisse zeigten, dass das Selbstkonzept des Aussehens den wichtigsten Prädiktor für ein positives Selbstwertgefühl darstellt; insbesondere für Mädchen. Andere Selbstkonzeptfacetten spielen eine deutlich geringere Rolle.
Körperliche Aktivität birgt hohe gesundheitliche Gewinne, wenn sie regelmäßig und dauerhaft praktiziert wird. Bestimmend für Verhaltensqualität und -prognose sind befriedigte implizite Motive. Stimmen sie mit den expliziten Zielen der Person überein, entsteht Wohlbefinden und Motivation. Welche psychogenen Motivprofile bei Personen im Präventionssport dominieren, ist unbekannt und wurde hier qualitativ untersucht. Mittels semiprojektiven Foto-Elicitation Interviews, speziell der Zaltman Metaphor Elicitation Technique, wurden acht Probanden qualitativ zu expliziten Zielen und impliziten Motiven ihrer körperlicher Aktivität im Präventionssetting befragt. Ihr Involvementniveau zu aktivem Gesundheitshandeln wurde zuvor standardisiert erhoben. Ausgewertet wurde durch induktive Inhaltsanalyse nach Mayring sowie bildmetaphorisch nach Lakoff und Johnson, ein motivationales Netzwerk kartiert und die Ergebnisse kommunikativ validiert. Die Analyse ergab fünf explizite Handlungsgründe für gesundheitsförderliche körperliche Aktivität, die teils bekannte Ziele des Freizeitsports bestätigen, teils neue Aspekte aufdecken. Insbesondere das explizite Ziel Regeneration und seine Affektqualität scheinen die Motivation zu verstärken. Die erhobenen hohen Ausprägungen des impliziten Leistungs- und Autonomiemotivs waren mit positiven Affekten und Wohlbefinden assoziiert. Anschluss- und Machtmotive blieben unauffällig. Wesentliche Genderunterschiede zeigten sich bei keinem der Partialergebnisse.
This thesis aims at contributing to the better understanding of the roles of international and domestic institutional and governance patterns for corporate sustainability practices. By combining governance and new institutionalism approaches it bridges the gap between the close look at specific corporate sustainability (CS) policies and the broader view on institutional frameworks. The qualitative comparative approach aims to provide deeper insights on the implementation of different governance schemes by transnational corporations ((TNC). Finally, the conclusions might allow for the development of a) recommendations for the balancing of TNCs' CS management between global and domestic requirements, and b) policy recommendations in the field of CS governance. The overarching research question is as follows: What role do national governance patterns play in comparison to global governance practices in shaping the corporate sustainability (CS) management of transnational corporations (TNCs)? In order to further operationalize this research objective, it is structured into three subquestions: (1) What are relevant institutional factors and global governance patterns for corporate sustainability/ Corporate Social Responsibility (CSR)? (2) What are relevant institutional factors and national governance patterns for corporate sustainability/CSR in Germany, the US, and India? (3) How do these national and global governance patterns influence TNCs' CS management? The first two questions aim at tracing the institutional framework and governance patterns at both national and international levels by identifying norms, stakeholder expectations, prevalent modes of governance and actors involved in governance processes. On this basis, the third question targets TNCs' reaction to internationally varying governance patterns. Here, it is of main interest how relevant governance instruments are perceived by business actors and to which extent their sustainability management at the companies' headquarters and subsidiaries reflect global and national institutional and governance patterns. In order to answer these questions, literature research and a structured qualitative analysis have been conducted. The concepts of CS and CSR build the basis to analyze how TNCs and their subsidiaries manage their social and ecological corporate responsibilities. Against this conceptual background, the research question is approached empirically by the means of an international comparison. Three institutionally highly diverse countries were chosen: Germany, India and the US. India, an emerging market economy, was included to increase the diversity of the sample and to close the research gap indicated above. In order to identify the differences in governance for CS in these three countries, document analyses and 42 guideline-based interviews with experts from governments, NGOs, trade unions and trade associations were carried out. At the same time, global governance instruments for corporate sustainability – which are already relatively well researched - were identified by analyzing the relevant secondary literature. In a second step, in order to explore how TNCs strategically deal with the multitude of different governance approaches at their headquarters and subsidiaries, three case studies of Germany-headquartered transnational corporations in the chemical and engineering industries (Siemens, BASF and Bayer) have been conducted.
European species-rich grasslands are threatened both by land use intensification as well as land abandonment. The studies shown in this thesis tested the possible use of ecological knowledge to ensure hay productivity whilst maintaining diversity of grasslands, with a view to informing ecological restoration. The overall approach was to understand interactions between plants, to study diversity effects on productivity, and mainly investigate how plant functional groups that arrive first in the system can create priority effects that influence community productivity both above- and belowground. A grassland field experiment was established and monitored for four years, in order to verify the effects of manipulating the order of arrival of different plant functional groups, as well as the sown diversity level on productivity and methane yield. The overall findings were: a) sowing legumes first created priority effects aboveground (higher biomass) and belowground (lower root length), plants invested less in roots and more in shoots, b) priority effects were more consistent below than aboveground, c) sown diversity did not affect aboveground biomass, d) the order of arrival treatments indirectly affected methane yield by affecting the relative dominance of plant functional groups. Since the researchers lack information on how legumes and non-legumes interact spatially belowground, (particularly related to root foraging) a controlled experiment was performed, using two grass species and one legume. The identity and location of the neighbours played a role in interactions, and the order plants arrived modulated it. When the focal species (grass) was growing with a legume it generally equated to the same outcome as not having a neighbour. Roots from the focal species grew more toward the legume than the grass neighbour, indicating a spatial component of facilitation. Since these studies involved root measurements, a method study was also conducted to verify how comparable and accurate are root length estimates obtained from different techniques. Results showed that the use of different methods can lead to different results, the studied methods did not have the same accuracy, and the automated methods can underestimate the root length. Overall, the results allow to conclude that different groups of plants arriving before others affected above and belowground biomass, roots may be key drivers during the creation of these priority effects, and interaction outcomes between plants depended on neighbour identity and location, modulated by the order they arrive in. The results suggest that priority effects can be used by sowing different species or plant functional groups at different time to steer a community to a desired trajectory depending on the restoration goal. However, there is a need to test contingency, potential, and long term impacts of such possible tools for restoration.
Unter Wirkungsbezogener Analytik (WBA) wird die Kopplung eines chromatographischen Trennverfahrens mit einem biologischen Testsystem verstanden. Der Vorteil bei dieser Herangehensweise ist, dass die zuvor getrennten Probeninhaltsstoffe anhand ihrer Aktivität mit einem in vitro-Testsystem detektiert werden. Es hat sich gezeigt, dass die Hochleistungsdünnschichtchromatographie (HPTLC) besonders geeignet für die WBA ist. Bislang konnte nicht gezeigt werden, dass die WBA mit HPTLC auch als routinefähige Methode eingesetzt wurde. In dieser Arbeit erfolgte eine Optimierung der Detektion der Endpunkte Biolumineszenzhemmung (Aliivibrio fischeri), antibiotische Wirkung (Bacillus subtilis), Neurotoxizität (Acetylcholinesterase) von der HPTLC-Platte hinsichtlich Routinefähigkeit. Zusätzlich konnte in ersten Versuchen gezeigt werden, dass es möglich ist, direkt gentoxische Verbindungen mittels des umu-Tests auf der HPTLC-Platte nachzuweisen. Für die einzelnen Biotests sind unterschiedliche Inkubationszeiten notwendig. Dies führt aufgrund von Diffusion auf der HPTLC-Platte zu einer Bandenverbreiterung. Es wurden unterschiedliche Methoden und Arbeitsweisen zur Verminderung der Diffusion erprobt und optimiert. Eine Möglichkeit ist die mechanische Eindämmung durch die Einbringung einer Gaze in eine verfestigte Calciumalginatschicht. Optimiert wurde dieses Verfahren am Bacillus subtilis-Hemmtest. Für Enzymtests ist eine vergleichsweise kurze Inkubationszeit notwendig. Daher tritt hier eine geringere Bandenverbreiterung auf, womit eine mechanische Einschränkung der Diffusion nicht geeignet ist. Um die auftretende Bandenverbreiterung möglichst gering zu halten, wurde besonders die Aufbringung des Substrats optimiert. Dies geschah am Beispiel des HPTLC-Acetylcholinesterasehemmtests. Die Ermittlung der unterschiedlichen bandenverbreiternden Einflussfaktoren erfolgte mittels statistisches Versuchsplanung. Anhand der gewonnenen Erkenntnisse konnte die Methode soweit optimiert werden, dass die bei der Detektion von AChE-Inhibitoren auftretende Bandenverbreiterung sehr gering gehalten werden kann. Aufgrund der hohen Empfindlichkeit des Verfahrens lassen sich selbst geringe Spuren von Verunreinigungen in Referenzsubstanzen detektieren. Besonders für den Routineeinsatz der WBA mit der HPTLC ist die Vergleichbarkeit der Ergebnisse erforderlich. Dazu wurde anhand des HPTLC-Leuchtbakterienhemmtests mit Aliivibrio fischeri eine Auswertestrategie erarbeitet. Die Ermittlung der Biolumineszenzhemmung findet analog zum Küvettentest statt und kann ortsaufgelöst als Hemmwert-Chromatogramm dargestellt werden. Die Darstellung der Hemmung in einem Hemmwert-Chromatogramm gleicht die Stauchung der Peaks aufgrund des sigmoiden Verlaufs der Dosis-Wirkungsbeziehung teilweise aus. Durch die nichtlineare Beziehung zwischen Konzentration bzw. Flächenmasse und Wirkung der unbekannten Substanzen ist es für den Vergleich von Proben notwendig, einen Bezugspunkt zu setzen. Bewährt hat sich dafür der EC50-Wert. Da aber in den meisten Fällen die Konzentration unbekannt ist, wird als Bezugspunkt das Auftragevolumen gewählt, welches erforderlich ist um eine Hemmung von 50% auszulösen. Der Kehrwert des berechneten Auftragevolumens für 50% Hemmung stellt das reziproke Iso-Hemmvolumen (RIHV) dar. Dieser RIHV-Wert hat sich für den Probenvergleich in verschiedenen Anwendungen bewährt. Das Prinzip der Auswertung kann vom HPTLC-Leuchtbakterientest mit Anpassung auf den HPTLC-Bacillus subtilis-Hemmtest übertragen werden. Für den Vergleich der Wirkung auf die Acetylcholinesterase-Hemmung wird in Anlehnung zum RIHV, das reziproke Iso-Aktivitätsvolumen (RIAV) herangezogen. Hier wird das Auftragevolumen, welches notwendig ist, eine Aktivität der AChE von 50% zu erreichen, als Kehrwert angegeben. Zur Ermittlung der Messunsicherheit der Chromatographie und der detektierten Wirkung wurden parallel zu den Proben Referenzverbindungen untersucht. Bei der Überwachung einer gesicherten Deponie über einen Zeitraum von 4,5 Jahren konnte gezeigt werden, dass es sich bei der Hochleistungsdünnschichtchromatographie mittels automatisierter Mehrfachentwicklung (HPTLC/AMD) um ein reproduzierbares Chromatographiesystem handelt. Bei der Anwendung des Leuchtbakterien-, Bacillus subtilis- und des Acetylcholinesterase-Hemmtests auf verschiedene Deponie- und Abwasserproben wurden über einen Zeitraum von sieben Monaten Standardabweichungen von 5-9% Hemmung für die testspezifischen Referenzsubstanzen ermittelt. Als Ergebnis der Validierung wurden der HPTLC-Aliivibrio fischeri-, der HPTLC-Bacillus subtilis- und der HPTLC-Acetylcholinesterase- Hemmtest am 24.03.2015 von der deutschen Akkreditierungsstelle (DAkkS) akkreditiert. Zur Ermittlung potenziell gentoxischer Substanzen wurde der umu-Test ausgewählt. Mit dem umu-Test auf der HPTLC-Platte ist es derzeit möglich, die aus der DIN 38415-3 bekannte direkt wirkende gentoxische Substanz 4-Nitroquinolin-N-oxid (4-NQO) auf der HPTLC-Platte nachzuweisen. Für einen erfolgreichen Nachweis von indirekt wirkenden Substanzen, die erst nach der Aktivierung durch Stoffwechselenzyme gentoxisch wirken, war es nicht möglich, das erforderliche Metabolisierungssystem auf der HPTLC-Platte aufrecht zu erhalten. Zur Durchführung der WBA ist für die meisten Wasserproben (z. B. Oberflächenwasser oder Grundwasser) eine Anreicherung erforderlich. Parallel zu den Arbeiten mit den biologischen Testsystemen erfolgte die Optimierung der Anreicherung von organischen Verbindungen aus Wasserproben. Für die Festphasenextraktion (SPE) wurden verschiedene Materialien bei den pH-Werten 2, 7 und 9 mit Substanzen unterschiedlicher Polarität getestet. Die besten Wiederfindungen über den gesamten Polaritätsbereich erzielte die Phase "Agilent Plexa" (Polydivinylbenzol) mit einer angepassten Elutionsabfolge. Bei der Auswahl des Materials und der Anpassung der Elutionsabfolge wurde auch auf einen möglichst geringen Blindwert für den Biolumineszenz-Hemmtest mit Aliivibrio fischeri geachtet. Damit wurde eine für die WBA geeignete Anreicherungsmethode gefunden. Zur Verbesserung der Extraktionsausbeute von polaren Verbindungen mittels Flüssig-Flüssig-Extraktion (LLE) wurde die Mikro-LLE mit dem in allen Verhältnissen mit Wasser mischbaren Extraktionsmittel Acetonitril getestet. Die im Blindwert auftretenden störenden Substanzen konnten durch Ausheizen des zur Phasentrennung erforderlichen Natriumchlorids erheblich reduziert werden. Bei den Untersuchungen zur Wiederholbarkeit mit einer Deponiesickerwasserprobe und der Detektion der Biolumineszenz von Aliivibrio fischeri waren nur geringe Abweichungen der Hemmwerte detektierbar. Aufgrund der zu erwartenden komplexen Zusammensetzung von Proben aus dem Deponiebereich ist eine Gradientenelution für die HPTLC/AMD notwendig. Anhand von Referenzverbindungen und Extrakten aus verschiedenen Deponien wurde die HPTLC/AMD-Trennung für ein Screening optimiert. Mit diesem Screening-Gradient ist es möglich, die wirkenden Probenbestandteile über die gesamte Trennstrecke zu verteilen. Zusätzlich fand noch eine Entwicklung einer isokratischen HPTLC-Trennung für eine schnelle Beurteilung von Proben statt, wobei bei dieser Methode Abstriche bezüglich der Trennleistung gemacht werden mussten. Zudem konnte gezeigt werden, dass der aufwendige Identifizierungsprozess durch spezifische postchromatographische Derivatisierungsreaktionen auf der HPTLC-Platte unterstützt werden kann. Dazu wurde der Bratton-Marshall-Nachweis von primären Aminen optimiert. Durch den Nachweis von austauschbaren Protonen mittels des H/D-Austausches lassen sich die denkbaren Strukturen deutlich einschränken. Für einen nahezu vollständigen H/D-Austausch hat sich die Kopplung von HPTLC und Massenspektrometer (MS) als besonders geeignet gezeigt, da hier nur wenige Milliliter an deuterierten Lösemitteln benötigt werden. Erprobt wurden die optimierten Methoden an verschiedenen Wässern, welche aus Kläranlagen und aus dem Umfeld von Deponien stammen. Durch die Einführung des RIHV- bzw. RIAV-Wertes ist es möglich Wässer von verschiedenen Probennahmestellen, z. B. Deponiesickerwässer, anhand ihrer Wirkung vergleichend zu beurteilen. Auch kann damit die Veränderung des Wirkungsmusters über einen Aufbereitungsprozess beobachtet werden. Die Untersuchungsergebnisse zeigen zudem, dass auch bei der WBA Feldblindproben entscheidend sind, um Proben sicher beurteilen zu können.
Der Anteil der Menschen, die persönlich oder familiär einen Herkunftsbezug zu Ländern außerhalb Deutschlands aufweisen, steigt seit Jahren an. Diese Menschen werden in der Bevölkerungsstatistik als Personen mit Migrationshintergrund erfasst, wobei vor allem die eigene Staatsangehörigkeit eine Rolle spielt, sowie diejenige der Eltern. In den Mobilitäts- und Verkehrswissenschaften ist das Wissen über diese Bevölkerungsgruppe in Deutschland sehr gering und fragmentiert. Wenig ist bekannt über das Vorhandensein von Nutzungsvoraussetzungen wie Führerscheinbesitz oder der Fähigkeit Fahrrad fahren zu können, über die Verfügbarkeit verschiedener Verkehrsmittel oder über das alltägliche Mobilitätsverhalten. Auffallend ist diese Lücke vor allem im Vergleich mit den USA, wo sich Verkehrs-, Bildungs- und Gesundheitswissenschaften mit dem Mobilitätsverhalten von Migranten beschäftigen. Ziel dieser Arbeit ist es, diese Wissenslücke für Deutschland zu verkleinern. Dabei stellt sich die Frage, ob sich Menschen mit Migrationshintergrund unter den hiesigen Rahmenbedingungen in ihren Mobilitätsvoraussetzungen und in ihrem alltäglichen Mobilitätsverhalten von den Menschen ohne Migrationshintergrund unterscheiden. Darüber hinaus ist die Identifikation wichtiger Einflussfaktoren zur Erklärung des Verhaltens von besonderem Interesse. Grundlage ist eine - teilweise explorativ angelegte - empirische Studie zum Mobilitätsverhalten von Menschen mit und ohne Migrationshintergrund in Offenbach am Main, die 2010 im Rahmen eines Forschungsprojekts am ILS-Institut für Landes- und Stadtentwicklungsforschung gGmbH durchgeführt wurde. Die Ergebnisse zeigen sowohl Gemeinsamkeiten als auch Unterschiede zwischen den Gruppen. Diese betreffen soziodemografische und -ökonomische Faktoren, mobilitätsbezogene Voraussetzungen wie Führerscheinbesitz oder Verkehrsmittelverfügbarkeit, Fragen zur Mobilitätskultur im Elternhaus, aber vor allem die alltägliche Nutzung verschiedener Verkehrsmittel. Die Ergebnisse werden in dieser Arbeit in Artikelform kumulativ präsentiert und durch einen einrahmenden Text eingeleitet, eingeordnet und im Zusammenhang diskutiert.
Metals fulfill crucial functions in areas as diverse as renewable energy, digitization and life style appliances, mobility, communication, or medicine. In the context of sustainability, achieving a more sustainable metal use means (i) minimizing the adverse effects associated with metal production and use and (ii) sustaining the availability of metals in a way that benefits present and future generations. Urgent need to act to avoid bottlenecks as well as meeting the challenge of possible conflicts of use among those areas of application calls for appropriate strategy making to intervene in the complex field of metal production and use that involves various, often interlinked operating levels, actors, and spatial and temporal scales. This dissertation focuses on strategies as a means to intervene in a system. It pursues the question, which design features could guide future strategy making to foster sustainability along the whole metal life cycle, and especially, how a better understanding of temporalities, i.e. understanding time in a diverse sense, could improve strategy design and help to bridge the assumed "transformation-material gap". This research converges the results from four research studies. A conceptual part explores the role of temporalities for interventions in complex and interlinked systems, which adds to the conceptual basis, on which the empirical part builds up to explore present and future interventions in metal production and use. The research revealed three essential needs that future strategies must tackle: (i) managing the complex interlinkages of processes and activities on various operational levels and spatial and temporal scales, (ii) providing clear guidance concerning the operationalization of sustainability principles, and (iii) keeping activities within the planet’s carrying capacity and embracing constant change as an inherent system characteristic. In response to these needs, the author developed three guidelines with two design features each (one relating to content, and one to the process of formulating and implementing the strategy) to guide future strategy making. The results show that time matters in this respect. If considered in close relation to space and diversely understood in the sense of temporalities, it serves to (i) understand the impact (duration and magnitude) of an intervention, (ii) recognize patterns of change that go beyond establishing linear, one-dimensional connections, and (iii) design interventions in a way that considers the resilience of a system. These findings can contribute to closer considering our understanding of transformation processes towards sustainability in future interventions in metal production and use.
Die vorliegende Dissertationsschrift orientiert sich an dem soziologischen Verständnis von Zeit als Gestaltungsprinzip (Elias 1984) und der damit verbundenen Bedeutung für institutionell-pädagogische Zeitgestaltungen. Im Rahmen einer qualitativen - und ethnografisch orientierten - Fallstudie wird herausgearbeitet, wie sich die kindlichen Zeitpraktiken in unterschiedlichen Institutionen der frühen Bildung und im Übergang zur Grundschule mit ihren je besonderen institutionellen Zeitordnungen ausprägen. Die empirischen Befunde zeigen, dass die Fach- und Lehrkräfte auf normierte Ablaufmuster und Vorgaben zur Zeitnutzung zurückgreifen und sich spezifischer Disziplinierungspraktiken bedienen, um die Kinder in die vorherrschende soziale Zeitordnung und das darin verwobene generationale Arrangement einzupassen. Verstärkt durch die zeitlichen Anforderungen des institutionellen Alltags verengen sich die erwachsenen Zeitpraktiken immer wieder zu den gleichen Handlungsweisen; insbesondere die Tendenzen zur Beschleunigung und Verdichtung sind als Gestaltungsmodi beobachtbar. Ungeachtet dessen verdeutlichen die Erkenntnisse weiterhin, dass sich die kindlichen Zeitpraktiken in Formen ausprägen, die häufig nicht den sozial vorherrschenden Handlungspraktiken und Handlungslogiken folgen, sondern vielmehr auf einer eigenen Sinngebung beruhen. Im Vergleich zu den Erwachsenen kommt diese zeitliche Eigenart dadurch zum Ausdruck, dass Kinder Gegenständen andere Bedeutungen und Funktionen beimessen, andere Formen des Handlungsvollzuges praktizieren und sich auch in je besonderen Geschwindigkeitsmodi bewegen. In ihrem spezifischen zeitlichen Handeln lassen sich die Kinder bewusst nicht von den Vorgaben zur Zeitnutzung stören bzw. unterwandern diese immer wieder auch zielgerichtet. Angesichts der divergierenden Handlungspraktiken von Erwachsenen und Kindern geht der Alltag mit regelhaften Zeitkonflikten einher, die sich zulasten der kindlichen Persönlichkeitsentwicklung, des Erwerbs von Zeitkompetenz wie auch der Arbeitsbedingungen des Personals auswirken können, weshalb eine weitere Intensivierung einschlägiger Zeitforschungen bedeutsam erscheint.
The present doctoral dissertations seeks to shed theoretical and empirical light on how complexity and different approaches to manage it affect perceptions, behaviors, and outcomes in integrative negotiations. Chapter 1 summarizes the following chapters, describes their individual contribution to the present thesis, and outlines avenues for future research. In Chapter 2, a theoretical model comprising of task- and context-based determinants of complexity in negotiations is developed. In Chapter 3, the effects of the number of issues (high vs. low) as one essential determinant of complexity on parties' trade-off behavior and joint outcomes are investigated in a series of four experiments. Furthermore, negotiators' cognitive categorizing of issues (i.e., their mental-accounting approach) is examined as the underlying psychological mechanism. Results reveal that more issues lead to a higher risk of scattering the integrative potential between cognitive categories (i.e., mental accounts), reducing trade-off quality and joint outcomes. In Chapter 4, the generalizability of the detrimental effect of the number of issues on joint outcomes is tested across varying numbers of issues in a meta-analysis. Moreover, boundary conditions for the effect are investigated. Results confirm the generalizability of the number-of-issues effect, but no relevant boundary conditions are identified. In Chapter 5, the effects of different mental-accounting approaches on negotiators' judgment accuracy, trade-off behaviors, and negotiation outcomes are examined in a series of five experiments. Results demonstrate that categorizing a moderate number of issues into each mental account leads to a higher judgment accuracy, trade-off quality, and joint outcomes, but only if negotiators manage to pool the integrative potential within these accounts. Finally, Chapter 6 takes a broader perspective on different integrative strategies in negotiations (i.e., expanding the pie, logrolling, solving underlying interests), thereby laying the groundwork for future research.
The global food system faces many complex challenges, and there is general agreement that a transformation is needed. While localizing food has been proposed as a means to this end, changing global food supply chains may also lead to sustainable food systems. Because most food systems today have an international dimension and are likely to remain connected, on one way or another, to other ones across the globe, it is necessary to find solutions to problems such as exploitation or environmental degradation. Addressing this challenge and the related gap in the literature, this study examines the emerging practices of small intermediary food businesses, which act between agricultural producers and consumers, and may have the potential to advance sustainability in international food supply. Including a systematic review of the literature on food systems change (Study#1), this dissertation adopts a transformational sustainability research methodology, which is solution-oriented, aims to integrate system, target and transformation knowledge, and is characterized by a transdisciplinary research practice. It conceptualizes challenges of international food supply and empirically investigates entrepreneurial solution approaches to address these challenges (Study#2). Two transdisciplinary research projects with small coffee businesses located in Germany, Mexico, and the U.S. were conducted to examine how these approaches could be implemented (Study#3, Study#4, Workshop reports 1+2). Overall, this study shows that challenges in international food supply chains can be conceptualized as negative effects of large geographical and relational distances. It also identifies five entrepreneurial solution approaches specified by twelve sustainability-oriented design principles to address these negative effects. Creating relational proximity between supply chain actors, that is, strong relationships based on knowledge and care, seems to be a key factor to advance sustainability in international food supply.The results also suggest that by building such strong relationships and changing the fundamental principles of international food trade, small intermediary businesses could be important agents in food system transformations.
This dissertation addresses the question of how sustainability curricula can be implemented and established in higher education institutions. Universities – as hubs for knowledge generation, innovation, and education – provide a central leverage point for sustainably developing society at large. Therefore, the institutionalization of sustainability curricula is not only socially demanded, but also stipulated in numerous political statements from the international community (e.g., those of the UN and UNESCO) and operationalized via Sustainable Development Goal No. 4: "Quality Education". Previous findings on how such implementation can be successful and what factors support or inhibit the process have come primarily through case studies of individual higher education institutions. These studies have been largely descriptive rather than analytical and leave open questions about the generalizability of their findings. The present dissertation addresses this research gap. Through a meta-study (i.e., an analytical comparison of existing case studies), generalizable findings on the implementation processes of sustainability curricula are explored. In the first step, a case universe was collected in order to provide a database for deeper analyses. In two further analysis steps that built on the case universe from Step 1, certain factors that promote or inhibit the implementation of sustainability curricula (Step 2) and specific implementation patterns (Step 3) were examined. The presented findings add a complementary empirical perspective to the discourse on the establishment of education for sustainable development (ESD) at higher education institutions. First, the case studies that specifically address the implementation processes of sustainability curricula are reviewed and analyzed here for the first time as part of a research landscape. This research landscape reveals where research on such implementation processes has been or is being conducted. On this basis, both researchers and funders can reflect on the status quo and plan further research or funding endeavors. Second, this dissertation offers the opportunity to compare a multitude of individual case studies and thus to develop new and generalizable insights into the implementation of sustainability curricula. The empirical analysis uses 133 case studies to identify key factors that promote or inhibit the implementation of sustainability curricula and to add a complementary perspective to the discourse, which has thus far been dominated by theoretical considerations and individual case studies. The analysis thereby offers a new perspective on generalizable influencing factors that appear to be important across different contexts. Thus far, specific patterns of implementation processes have been infrequently studied, and with few datasets. This dissertation analyzes the complex interplay between over 100 variables and provides one of the first research attempts at better understanding the processes that lead to the deep-rooted and comprehensive implementation of sustainability curricula. Internal and external practitioners of higher education institutions can find examples and evidence that can be useful in planning the next steps of their sustainability curriculum implementation. This dissertation offers generalizable empirical findings on how universities can succeed in recognizing their own responsibility to that end and in realizing this transformation through the implementation of ESD.
Stretching is primarily used to improve flexibility, decrease stiffness of the muscle- tendon unit or reduce risk of injury. This cumulative dissertation includes six studies aiming to investigate the effects of long-lasting static stretching training on maximum strength capacity, hypertrophy and flexibility in the skeletal muscle. Before starting own experimental studies, a meta-analysis of available animal research was conducted to analyze the potential of long-lasting stretching interventions on muscle mass and maximum strength. To induce long-lasting stretching on the plantar flexors and to improve standardization of the stretch training by quantifying the angle in the ankle joint while stretching, a calf muscle stretching orthosis was developed. In the following experimental studies, the orthosis was used to induce daily long- lasting static stretching stimuli with different stretching durations and intensities in the plantar flexors to assess different morphological and functional parameters. For this, a total of 311 participants were included in the studies and, dependent on the investigation, the effects of daily stretching for 10-120 minutes for six weeks were analyzed. Therefore, effects on maximal isometric and dynamic strength as well as flexibility of the plantar flexors were investigated with extended and flexed knee joint. The investigation of morphological parameters of the calf muscle was performed by determining the muscle thickness and the pennation angle by using sonographic imaging and the muscle cross-sectional area by using a 3 Tesla magnetic resonance imaging measurement. In animals, the included systematic review with meta-analysis revealed increases in muscle mass with large effect size, muscle cross-sectional area, fiber cross-sectional area, fiber length and fiber number. The thereafter performed experimental studies from the laboratory showed a range of trivial to large increases in maximum strength and ROM dependent on stretching time, training level and testing procedure. Furthermore, significant moderate to large magnitude hypertrophy effects in muscle thickness and trivial to small increases in muscle crosssectional area were demonstrated. The results are discussed based on physiological parameters from animal studies and in the front of knowledge in resistance training, suggesting mechanical tension to be one important factor to induce muscle hypertrophy and maximal strength increases. Further explanatory approaches such as hypoxia and changes in the muscle tendon unit are debated in the following. Since these studies are the first investigations on long-lasting stretch-mediated hypertrophy in humans, further research is needed to explore the underlying mechanisms and confirm the results in different populations to enhance the practical applicability for example in clinical populations when, e.g. counteracting muscular imbalances or sarcopenia in the elderly.
Aufbauend auf einem interdisziplinären Modell, das sowohl kognitionspsychologische als auch mathematikdidaktische Fähigkeiten beim Schätzen von visuell erfassbaren Größen (Längen, Flächeninhalte, Fassungsvermögen, Rauminhalte) beinhaltet, und einem Modell zur Systematisierung verschiedener Aufgabenmerkmale wurde im Rahmen dieses Dissertationsprojekts ein schriftlicher Schätztest entwickelt. Der Schätztest beinhaltet insgesamt 48 Items, deren Merkmale zwischen den Größen parallelisiert und gleich verteilt sind (12 Items pro Größe) Die Daten des Tests werden genutzt, um verschiedene Arten der Ermittlung und Bewertung von Schätzgenauigkeit zu untersuchen, die Schätzgenauigkeit von Kindern der vierten, fünften und sechsten Klasse zu ermitteln und um den Zusammenhang der vier Größen zu beschreiben. Die Untersuchung verschiedener klassischer Fehlerberechnungs- und Bewertungsarten zeigt wesentliche Unterschiede in Testleistung und Testgüte. Die Berechnung des logarithmischen Fehlers in Verbindung mit einem logarithmischen Scoring wird als ein alternatives Verfahren genutzt. Die Analyse der Schätzergebnisse von 900 Kindern zeigt, dass sich die Schätzgenauigkeit von Kindern der vierten und sechsten sowie fünften und sechsten Klassen signifikant unterscheidet: Kinder aus höheren Jahrgängen schätzen genauer als Kinder aus niedrigeren Jahrgängen. Es konnte kein signifikanter Unterschied bei der Schätzgenauigkeit zwischen Kindern der vierten und fünften Klassen festgestellt werden. Darüber hinaus unterscheidet sich Schätzgenauigkeit signifikant zwischen den Größen: Längen werden am genauesten geschätzt, gefolgt von Fassungsvermögen, Flächeninhalten und Rauminhalten. Alle Größen korrelieren bezüglich der Schätzgenauigkeit moderat miteinander. Die Schätzgenauigkeit von Längen kann als Prädiktor für die Schätzgenauigkeit der anderen Größen herangezogen werden.