Filtern
Erscheinungsjahr
- 2005 (69)
- 2007 (63)
- 2006 (62)
- 2001 (54)
- 2003 (52)
- 2019 (39)
- 2004 (38)
- 2016 (38)
- 2002 (36)
- 2000 (34)
- 2013 (34)
- 2021 (33)
- 2012 (29)
- 2015 (29)
- 2023 (28)
- 2014 (25)
- 2020 (25)
- 2018 (23)
- 2017 (22)
- 2022 (21)
- 2008 (20)
- 2010 (16)
- 1999 (15)
- 1996 (13)
- 1998 (13)
- 2011 (12)
- 1992 (9)
- 2009 (9)
- 1991 (5)
- 1995 (5)
- 1997 (3)
- 1989 (2)
- 1990 (2)
- (1)
- 1986 (1)
- 1988 (1)
- 1993 (1)
- 2024 (1)
Dokumenttyp
- Dissertation (240)
- Research Paper (114)
- Bachelorarbeit (79)
- Teil eines Buches (Kapitel) (78)
- Diplomarbeit (60)
- Bericht (60)
- Wissenschaftlicher Artikel (51)
- Masterarbeit (50)
- Buch (Monographie) (42)
- Arbeitspapier (41)
Sprache
- Deutsch (883) (entfernen)
Schlagworte
- Nachhaltigkeit (25)
- Informatik (18)
- Kultur (16)
- Schule (15)
- Lehrkräfte (14)
- Personalentwicklung (13)
- Personalpolitik (13)
- Kooperation (12)
- Lüneburg (12)
- Ausbildung (11)
Institut
- Frühere Fachbereiche (314)
- Fakultät Bildung (76)
- Fakultät Nachhaltigkeit (59)
- BWL (52)
- Fakultät Wirtschaftswissenschaften (48)
- Fakultät Kulturwissenschaften (44)
- Psychologie/Wirtschaftspsychologie (38)
- Philosophie (27)
- Informatik/Wirtschaftsinformatik (22)
- Institut für Nachhaltigkeitssteuerung (INSUGO) (17)
Ein wesentlicher Beitrag zur rationalen Verwendung unserer Energieresourcen kann durch die konsequente Nutzung diskontinuierlich anfallender Wärmeenergie erbracht werden, was aufgrund der zeitlichen Verschiebung von Wärmeangeboten und Wärmebedarf auf direktem Wege oft nicht möglich ist. Dies gilt sowohl für die Nutzung anfallender Abwärme aus Kühlprozessen als auch den ökonomiaschen Einsatz von Solarenergie. Dazu ist erforderlich, mit Hilfe eines effizienten Energiespreichers den überschüssigen Energieanfall zu verlagern.
Die Alkoholproblematik am Arbeitsplatz stellt einen wichtigen Teilaspekt der allgemeinen Suchtproblematik dar. In der vorliegenden Arbeit wird dargestellt, welche Möglichkeiten, aber auch welche Grenzen des hilfreichen Handelns am Arbeitsplatz allgemein und am Arbeitsplatz Universität insbesondere gegeben sind. Die Arbeit ist in vier Hauptteile gegliedert, die Gegenstand und Prozeß nachvollziehbar beschreiben. Im Teil I wird ausgehend von der Ätiologie und der Pathogenese die Funktion und Bedeutung der Droge Alkohol in der Gesellschaft beschrieben und der Zusammenhang zwischen Arbeitsbedingungen und Konsumverhalten dargelegt. Die Vorstellung eines Modells betrieblicher Alkoholprävention schließt sich im Teil II an. Die Implementierung eines Alkoholprogrammes an der Pilot-Universität wird im Teil III beschrieben. Unter Berücksichtigung erster Forschungsergebnisse wird ein Handlungskonzept für die Alkoholprävention an der Pilot-Universität formuliert, in dem jedoch Organisationsstruktur und Organisationskultur von Universitäten und Hochschulen noch nicht ausreichend berücksichtigt sind. Im letzten Teil der Arbeit wird daher der Versuch unternommen, ein Konzept zu entwerfen, das sich an der Methode der Organisationsentwicklung orientiert.
Bilder und Worte sind kulturelle Errungenschaften beträchtlicher Erfindungshöhe. Beide legen einen Ausschnitt des Interesses fest, beide isolieren semantische Elemente aus dem komplexen Strom kommunikativer Akte. Doch hat in Hinblick auf Indizierung die Erfindung von Wörtern einen besonderen Vorteil den Bildern gegenüber: es gibt nur endlich viele von ihnen, die auf einen bestimmten Begriff verweisen, es können Lexika geschrieben werden, die diesen Zusammenhang kodifizieren, und diese Lexika können alphabetisch geordnet sein, so die Brücke zwischen der Semantik und dem Berechenbaren schlagend.
Evaluation des Lehramtsstudiengangs aus der Sicht der Studierenden an der Universität Lüneburg
Die Befragung Lüneburger Handwerksbetriebe, die im Rahmen eines Projektes zur Regulierung auf dem deutschen Handwerksmarkt in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführt wurde, soll Auswirkungen der Anfang 2004 erfolgten Handwerksreform erfassen. Dabei liegt der Schwerpunkt dieses Artikels auf der Ausbildungsleistung des Handwerks. Die theoretischen Ansätze zur Erklärung betrieblicher Lehrstellenangebote sollen mit den Ergebnissen der ersten Befragungsrunde über die Determinanten der Ausbildungsentscheidung im Lüneburger Handwerk konfrontiert werden.
Die Anfang 2004 durchgeführten Reformen auf dem Handwerksmarkt hatten vor allem eine Erleichterung des Marktzutritts und damit mehr Wettbewerb zum Ziel. Die erwartete Zunahme der Anbieter, durch die es zu sinkenden Preisen und einer steigenden Nachfrage kommen soll, konnte zumindest auf Teilmärkten beobachtet werden. Der Artikel soll anhand von Beispielen des sehr heterogenen Handwerksmarkts aufzeigen, wie sich der Wettbewerb unter der Annahme unterschiedlicher mikroökonomischer Modellkonstellationen (vollständige Konkurrenz, Monopol, monopolistische Konkurrenz und Qualitätswettbewerb) entwickelt. Auf Grundlage einer Ende 2004 in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführten Befragung Lüneburger Handwerksbetriebe sollen dazu erste ökonometrische Auswertungen vorgestellt werden, die sich mit den Auswirkungen der Reform auf die wirtschaftliche Lage der Betriebe befassen.
Für die Neufassung der Handwerksordnung zum 1.1.2004 war die hohe Ausbildungsleistung des Handwerks ein zentrales Argument, die im Falle einer überzogenen Deregulierung einbrechen würde. Folgt man der ökonomischen Theorie werden Handwerksbetriebe ausbilden, wenn der erwartete Nutzen die erwarteten Kosten überwiegt; Ausbildung wird zum unternehmerischen Erfolgsfaktor. Die zweimalige Befragung Lüneburger Handwerksbetriebe, die im Rahmen eines Projektes zur Regulierung auf dem deutschen Handwerksmarkt in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführt wurde, zeigt, dass vor allem die Ausbildungsaktivität selbst zu einer guten bis sehr guten wirtschaftlichen Lage führt bzw. diese verbessert. Allerdings ist dieser Effekt nach relativ kurzer Frist (zwei Jahre oder mehr) wieder verschwunden.
Text zum Ausstellungskatalog von Franz John: Turing Tables.
Die Ensembles der bildenden Künstlerin Anna Oppermann (1940-1993) zeichnen sich durch ihre Selbstreferentialität, durch ihre vielfältigen Verknüpfungen und Verflechtungen der einzelnen Elemente untereinander aus und bilden so tiefgründige Erfahrungs- und Assoziationsräume. Im Rahmen des Forschungsprojekts "Hypermediale Bild-, Text-, Videoarchive zur Dokumentation komplexer Artefake der Bildenden Kunst" beschäftigt sich seit 1997 eine Gruppe von Wissenschaftlern und Studenten an der Universität Lüneburg mit der strukturerhaltenden Dokumentation einiger wichtiger Ensembles in Bild, Text, innerem Aufbau und wechselseitiger Verknüpfung.
Die unternehmensinterne Kommunikation (IK) ist ein brisantes Thema, das bereits aus vielen Perspektiven heraus beleuchtet wurde. Trotz zahlreicher wissenschaftlicher Bemühungen sich dem Thema anzunehmen, ist bei vielen Mitarbeitern von Unternehmen bis heute eine Unzufriedenheit mit der nach innen gerichteten Kommunikationspolitik der Arbeitgeber zu beobachten. Diese lässt eine mangelnde gegenseitige Bezugnahme von Theorie und Praxis vermuten. In der vorliegenden Arbeit wird zunächst untersucht, was genau sich hinter dem „Modewort“ Kommunikation verbirgt. Dabei werden verschiedene Kommunikationsmodelle vorgestellt, die Hinweise darauf liefern, welche Aspekte beim Entwurf einer zeitgemäßen Kommunikationsauslegung zu berücksichtigen sind. Basierend auf den so gewonnenen Erkenntnissen wird ein eigenes Begriffsverständnis abgeleitet, das darum bemüht ist, der hohen Komplexität des Phänomens gerecht zu werden. Hervorzuheben ist dabei, dass Kommunikation immer gleichzeitig einen äußerlichen und einen innerlichen Prozess beschreibt, der es schwierig macht, diesen zu planen bzw. dessen Wirkung vorauszusagen. Wie gleich zu Beginn der Abhandlung erkennbar wird, weisen eine Reihe von Entwicklungen innerhalb von Unternehmen sowie in deren Umfeld auf die Notwendigkeit hin, dass es auch im internen Kommunikationsbereich zu Veränderungen kommt, die den sich wandelnden Rahmenbedingungen der Informationsprozessierung Rechnung tragen. Hervorzuheben sind in diesem Zusammenhang insbesondere „neue“ Organisationsstrukturen, veränderte Ansprüche von Mitarbeitern an die IK und die Durchdringung dieser mit immer neuen Medien. Diese drei grundsätzlichen Tendenzen stehen in direkter Verbindung zueinander und stellen Unternehmen -genau wie ihre Mitarbeiter- vor neue Herausforderungen. Zunächst wird der Medienbegriff näher untersucht, um ein für den Kommunikationskontext sinnvolles Medienverständnis zu formulieren. Medien werden hier als Hilfsinstanz im Kommunikationsprozess verstanden, die es erlaubt, Informationen auch über räumliche und/oder zeitliche Distanzen hinweg zu verbreiten. Eben diese Errungenschaften der Medien bergen gleichzeitig eine Reihe von Risiken, die nicht zuletzt auch den Erfolg von Kommunikation betreffen, der im internen Unternehmensbezug vor allem darin zu sehen ist, dass beim Empfänger von Informationen eine intendierte Reaktion erfolgt. Diese kann sich in einem bestimmten Verhalten, aber auch veränderten Ansichten und Einstellungen des Rezipienten niederschlagen. Da der Medieneinsatz im Rahmen der IK zunehmend an Bedeutung gewinnt, muss diesem Aspekt besondere Aufmerksamkeit zukommen. Wie unter Rückgriff auf verschiedene Kommunikationsmodelle deutlich gemacht wird, kommt es durch die medienbedingte strukturelle Veränderung der Kommunikation zu einer Reihe von Effekten, die meist mit Restriktionen verbunden sind. Sowohl Informations- als auch Kanalvielfalt werden häufig eingeschränkt und führen zu einer veränderten Kommunikationssituation. Für die Akteure bedeutet dies, dass sie mit einem reduzierten Kommunikationsdesign konfrontiert sind, da besonders nonverbale Informationen nicht selten herausgefiltert werden und/oder die Möglichkeit zur direkten Interaktion eingeschränkt wird. Gerade diese für persönliche Kontakte typischen Merkmale sind jedoch von großer Bedeutung für den Kommunikationserfolg. Das Ziel dieser Arbeit ist folglich, zielführende Mittel und Wege auszuloten, die eben beschriebene Defizite medialer Kontakte ausgleichen können und ihre Potentiale voll nutzbar machen. Eine wichtige Rolle spielen in diesem Zusammenhang die verschiedenen Koordinationsweisen von Unternehmen, die weitgehend auch für Kommunikationsprozesse Gültigkeit besitzen. Durch eine Untersuchung und Gegenüberstellung der einzelnen Koordinationsmechanismen wird deutlich, dass besonders solche bei der Abstimmung zwischenmenschlicher Informationsprozesse viel versprechend sind, die auf Beziehungen gestützt sind, also auf freiwilliger Basis ent- und fortbestehen. Kultur und Vertrauen als Repräsentanten dieser Kategorie werden besonders in jüngerer Zeit immer häufiger von der Organisationswissenschaft aufgegriffen. Sie haben im Vergleich zur zweiten identifizierten Gruppe der autoritätsbasierten Koordinationsweisen (z.B. Anweisungen, Regeln) den Vorteil, einen hohen Grad an Allgemeingültigkeit aufzuweisen, auch wenn dazu eine gewisse Vorlaufzeit zur Sammlung gemeinsamer Erfahrungen nötig ist. Eine ausgeprägte Allgemeingültigkeit ist in der Kommunikation deshalb unentbehrlich, weil eine Vielfalt situationsabhängiger Kontextvariablen das Geschehen bestimmt, von der im konkreten Fall nicht alle einzelnen berücksichtigt werden können, ohne hohen Zeit- und Kostenaufwand zu verursachen. So stellt sich heraus, dass nur der kombinierte Einsatz verschiedener Koordinationsformen wirksam sein kann, wobei Kultur und Vertrauen als beziehungsgeleitete Varianten besondere Betonung finden sollten. Kernpunkt der Dissertation ist deshalb eine Analyse einzelner Komponenten dieser Mechanismen, die unerlässlich ist, um ihre Wirkung im Rahmen der Kommunikationsprozessierung detailliert untersuchen zu können. Hier wird deutlich, dass medienbedingte Informationsdefizite und eingeschränkte Rückkopplungsmöglichkeiten erfolgreich durch eine günstige Ausprägung der verschiedenen Kulturbereiche sowie ein hohes Maß an Vertrauen auf verschiedenen Ebenen ausgeglichen werden können. Auf dem Weg zu einem umfassenden Optimierungskonzept der unternehmensinternen (Medien-)Kommunikation wird als abschließender Schritt ausführlich erläutert, wie sich auf Vertrauen und Kultur als Wegbereiter einer effektiven und effizienten zwischenmenschlichen Kommunikation einwirken lässt. Die diesbezüglich herausgearbeiteten Einflussfaktoren lassen sich zunächst grob in zwei Gruppen unterteilen, von denen die eine als personenbezogene und die andere als zwischenmenschliche Erfolgsdeterminante bezeichnet wird. Es geht hier einerseits um die kommunikationsrelevanten Kompetenzen einzelner Mitarbeiter, die sich auf deren Umgang mit Informationen, Medien sowie anderen Personen beziehen und maßgeblichen Einfluss auf die unternehmensinterne Lage von Vertrauen und Kultur in seinen unterschiedlichen Dimensionen üben. Andererseits sind es die im Rahmen der verschiedenen unternehmensinternen Informationsflussrichtungen erkennbaren Kommunikationsbereiche, die ihrerseits einen wichtigen Beitrag zur gezielten Förderung eines ertragreichen Miteinanders leisten. An dieser Stelle kristallisieren sich vielseitige Wirkungszusammenhänge heraus, die in der Arbeit ausführlich dargelegt werden. Zusammenfassend ist festzuhalten, dass Kommunikation im aufgegriffenen Themenkontext gleichzeitig als wichtiger Erfolgsfaktor und anvisierte Zielgröße in Erscheinung tritt, woran deutlich wird, dass Informationsprozesse in gewisser Weise sowohl das Mittel als auch den Zweck der herausgearbeiteten Optimierungsstrategie darstellen. Festzuhalten ist, dass Kommunikationsprozesse unter besonderer Berücksichtigung des verstärkten medialen Einflusses nur auf der Basis gesunder Beziehungen im Unternehmen gleichzeitig rational als auch effektiv sein können. Interne Beziehungen hängen ihrerseits von den Kompetenzen einzelner Mitarbeiter und dem reibungslosen Informationsfluss sowohl in vertikaler als auch horizontaler Richtung ab. Der Fokus bei der Organisation der IK muss folglich auf der Ausgestaltung günstiger Rahmenbedingungen bzw. Voraussetzungen als Grundlage für erfolgreiche Informationsprozesse liegen, während konkrete Einzelfallregelungen und Anweisungen auf diesem Gebiet eine eher untergeordnete Rolle spielen, da diese Mechanismen die hier auftretenden Problemstellungen nur unzureichend aufgreifen.
Das Auffinden von Bildern im Internet ist immer noch an die Sprache als Verweis- und Indizierungsvehikel gebunden. Der Struktur und dem bildimmanenten Aufbau eines Bildes wird dabei keine Bedeutung beigemessen, die treffsichere Beschreibung und Betitelung des Bildes durch den Publizierenden entscheidet über seine Auffindbarkeit im WWW. Dieser Text setzt sich mit derzeitigen Verweisstrukturen des WWW und ihrer Anwendbarkeit auf Bilder auseinander, zeigt Schwächen auf und stellt mit PeTAL ein im Aufbau befindliches System vor, das Abhilfe schaffen könnte.
Beschrieben wird eine bedeutende Karte des hohen Mittelalters, ihre Herkunft, ihr Gehalt, ihre Struktur, einige Aspekte des von ihr verkörperten Weltbildes sowie ihre Dokumentation mit digitalen Medien.
Diese Publikation setzt sich unter dem Leitmotiv der Digitalisierung mit Aspekten der Wissensvermittlung auseinander. In diesem Beitrag ist also zu klären, was Wissen und die Vermittlung des Wissens mit Computertechnik zu tun haben und des weiteren, wie sich das neue Medium Computer in den delikaten Prozeß einmischt, in dem sich Individuen ein Bild von der Welt machen.
Im Jahr 1991 fand in Lueneburg im dortigen Museum ein Ausstellungsprojekt statt, geplant und realisiert von Lehrenden und Studierenden unserer Universitaet. Anna Oppermann war eine der eingeladenen Kuenstlerinnen und steuerte ihr "Friduttchen"-Ensemble bei. Aus diesem Treffen entstand die Idee, den Versuch zu wagen, ihre hoch komplexe, fragile, vergaengliche Arbeit mit den informatischen und kunstwissenschaftlichen Methoden zu dokumentieren, die wir Gelegenheit hatten, ihr vorzustellen. Im folgenden Jahr entstanden dann in enger Absprache mit der Kuenstlerin erste Versionen eines digitalen Archivs ihres Ensembles "Umarmungen, Unerklaerliches und eine Gedichtzeile von R.M.R." Der Beitrag berichtet ueber das Projekt und die Dokumentation der Arbeit Anna Oppermanns mit dem XML-Standard PeTAL.
Die Paechsche "Figuration der Aufloesung" beschreibt den subkutanen Medienwechsel eines mittelalterlichen Manuskripts von 1239, verdraengt vom Satz mit den beweglichen Lettern eines Johann Gensfleisch zum Gutenberg um 1440 in die Turing-Galaxis der digitalen Medien des zwanzigsten Jahrhunderts. Diese Entwicklung wird hier am Beispiel der Ebstorfer Weltkarte nachvollzogen, die im Digitalen wieder ein adaequates Medium fand.
In diesem Text soll es um Computerkultur gehen, die mit den Begriffen Synthese, Mimesis und Emergenz beschrieben wird. Fuer das Kulturprodukt - vielleicht sogar Kulturindustrie-Produkt - Film ist die Zeit guenstig fuer ein solches Unterfangen, denn wir koennen mittlerweile gut zwanzig Jahre ueberblicken, wir koennen bei der technischen Basis des synthetischen fotorealistischen Computergraphik-Bildes beginnen, sind im Moment in der Hochzeit der Animation in voller mimetischer Pracht angelangt, sehen aber auch schon, was an hochgradig vernetztem Geschehen z. B. als massive online role game Emergenzen zeitigt.
Es geht um die Widerstaendigkeit des Bildes, um das Phaenomen des Unvermoegens von Suchmaschinen, Bilder ebenso effizient aus der Flut des online zugaenglichen Materials zu filtern, wie es bei Texten so exzellent funktioniert. Dabei wird die Pointe sein, dass es sich nicht um ein informatisches Problem handelt, eines, das sich mit raffinierteren Algorithmen und schnelleren Computern in den Griff bekommen liesse, sondern, dass es sich um ein kulturell emergentes Phaenomen handelt, also zum dritten Teil der Triade Synthese - Mimesis - Emergenz gehoert.
Cut,-Copy-and-Paste-Verfahren gelten in Kreisen der Hochkultur immer noch als verschrien und trennen "echte" Kunst eindeutig von Nicht-Kunst. Das Werk Glenn Goulds zeigt beispielhaft, dass solche Festschreibungen nicht immer gelten. Nach dem Ende des auratischen Kunstwerks entsteht keine in und durch die Medien neu vergesellschaftete Kunst, sondern ein neuer Mythos. Nach dem Mythos der High Fidelity folgt der Mythos der Produktionstechniken und ihrer Magier, ein Mythos, an dem Gould - neben seinen Kollegen aus der "populaeren Musik", den Beatles, den Beach Boys und ihren Studioingenieuren - als einer der Ersten kraeftig mitstrickt.
Turings Maschine ist, wie man weiß, nie gebaut worden, und dies wäre auch nicht möglich. Dennoch und gerade deswegen kann sie als das Vorbild eines jeden Computers gelten, der bislang gebaut wurde oder es je werden wird. Denn sie, Turings Gedanken- oder Papiermaschine, wurde mit Vorbedacht als ein so simpler Mechanismus entworfen, daß an ihrer prinzipiellen Realisierbarkeit und daran, dass sie ohne menschlichen Eingriff zu funktionieren imstande wäre, kein Zweifel bestehen kann.
Wir haben es bei unserem Thema also mit einem Phantasma zu tun, dem der Beseelung, der Unterstellung von Odem, von Atem, bei toter Materie, bei den Maschinen. Und auch der Eindruck, die Maschinen machten sich nach und nach selbständig, und sie hätten so etwas wie Autonomie, ist natürlich nicht von der Hand zu weisen. Niemand könnte mehr behaupten, etwa das Internet noch zu beherrschen, wie man ein Werkzeug beherrscht. Unbeherrschbarkeit ist ja geradezu ein notwendiges Charakteristikum selbstorganisierender Systeme. Aber ist es denn so, dass wir unsere Computersysteme nicht mehr direkt programmieren können, bleibt uns, wie bei Kontrollversuchen an autopoietischen Systemen nur die Handlungsoption, Bedingungen für Möglichkeiten zu schaffen, und sind wir dann zum Zusehen und Abwarten verurteilt, ob manches dann auch so kommt, wie wir es intendieren?
Es ist zu fragen, ob das Neue am Cyberspace tatsächlich eine gänzlich andere Topographie – jenseits der Grenzen des uns bekannten Raumes – oder eine ganz neue Ökonomie sei, die den Gesetzen des Kapitalismus nicht mehr gehorcht, ob im Cyberspace gar Raum, Zeit und Geld verschwänden, welche die neuen Verhältnisse sind, in denen wir ein Leben führen, das zweifellos tatsächlich ein anderes ist als vor Erfindung der weltumspannend vernetzten Digitalcomputer.
Die Funktion des Archivs ist eine unmögliche. Der Aufgabe, die Archivalien zu bewahren, indem man sie vor dem zerstörerischen Zugriff ihrer Nutzer bewahrt, ist unvereinbar mit der Aufgabe, die eingelagerten Materialien allgemein zugänglich zu machen. Digitale Datenhaltung könnte die Lösung des archivarischen Dilemmas sein, sie ermöglicht so gut wie verlustfreies kopieren und vervielfältigen von Daten. Die sich daraus ergebenden Ewigkeits-Vorstellungen zum Digitalen, legen den Schluß von »digital« auf »Archiv« nahe. Es ist allerdings, um die Pointe vorwegzunehmen, ein Kurz-Schluß, ein Phantasma und kein technisches Faktum, um das es hier geht. Das Digitale, wir werden es noch sehen, ist ein archivarischer Albtraum, und zwar aus vielerlei Gründen, die im Folgenden zur Sprache kommen sollen.
Entlang des Schemas aus den Begriffen Synthese, Mimesis und Emergenz, die auch immer als historische Kategorien begriffen werden, indem sie mit Epochen der Computertechnik parallel laufen, längs dieser Triade soll nun die Kunst zur Sprache kommen. Synthetisch ließen sich die frühen Computergraphiken und die stochastisch fundierten musikalischen Stilübungen Lejaren Hillers erzeugen; mimetischen Verfahren der Vor- und Nachahmung kommt man bei der interaktiven Medienkunst auf die Spur; vernetzt lassen sich künstlerische Experimente auf die Emergenzen des Sozialen ein.
Es dauert nicht mehr lange, dann wird es schwer werden, einen Computer zu fassen zu bekommen, geschweige denn, sich seiner mittels Handgreiflichkeiten zu entledigen. Die Autoren des einschlägigen Buchs über das Quantencomputing »The ultimate zero and one«, Colin Williams und Scott Clearwater, drücken das so aus: »Computers are starting to disappear before our very eyes by becoming part of the fabric of our world.«
Die schiere Quantität ist hier von zentralem Belang – als würde Engels’ ›Dialektik der Natur‹ wieder ihr Haupt aus dem gewiß geglaubten Grabe erheben und erneut fröhlich Quantität in Qualität umschlagen lassen. Es geht um obere und untere Grenzen von Informationsclustern, um die Frage also auch, ob dem Immer-Mehr nicht doch irgendwelche Grenzen gesetzt sind.
Interaktivität stellt fürr Virtualität eine notwendige Bedingung dar, denn zur subjektiven Konstruktion einer Realitätt aus computererzeugten Sinnesdaten muss sich die Feedback-Schleife aus Handlung, Wahrnehmung und darauf reagierender erneuter Handlung eng schließen. Der Text beleuchtet aus Sicht der Kulturinformatik die technikgeschichtlichen und kunsttheoretischen Zusammenhänge zweier Begriffe, die zentral sind für den Diskurs um und die Verortung von interaktiver Computerkunst.
Die Arbeit, von der die Rede sein soll, ist keine historische und keine philologische, sondern eine mediale. Wir haben vor vielen Jahren eine mediale Transformation an der Großen Ebstorferin vorgenommen, eine vom Pergament auf den Computerbildschirm, und dabei eine Zeitspanne der Medientechnik von 700 Jahren überbrückt, dabei die Ära des Buches übersprungen, die so stark unsere heutige Kultur geprägt, vielleicht besser: hervorgebracht, hat.
Wie viele andere Anregungen, so ist auch das Thema »Zeitpfeil« im Gespräch mit Claus Pias entstanden. Irgendwie sind wir auf das Thema gestoßen, inwieweit und ob Computer Maschinen mit Geschichte sind, ob reversibel oder nicht. Meine Physiker-Antwort, dass sie natürlich nicht-reversibel sind, weil sie bei der Arbeit warm werden, also Energie dissipieren, hat mich dann selbst nicht befriedigt, und so kam es, danach zu fragen, welche Arten von Entwicklung, welche Gesetzmäßigkeiten oder Zufälligkeiten benennbar sind, die der digitalen Informationstechnik einen Zeitpfeil, ein Jetzt, Zuvor und ein Danach geben.
Zweifellos gibt es fruchtbare Blickwinkel, unter denen Computermedien im Prozeß einer Sinnproduktion zu betrachten sind. Gerade wegen ihrer semantischen Enthaltsamkeit nämlich – zu der noch mehr und Weiteres zu sagen sein wird – wegen ihrer semantischen Abstinenz also sind Computer überaus wirksam bei der Errichtung symbolischer Ordnungen, treten sie als Apparate und Medien bei der Errichtung von Wissensordnungen in Erscheinung, die ohne sie nicht existieren würden.
Die in dieser Sammlung zusammengetragenen Texte reicht der Autor als kumulative Habilitationsleistung bei der Fakultät »Umwelt und Technik« der Leuphana Universität Lüneburg zum Zwecke des Erwerbs der Lehrbefugnis für die Fachrichtung »Informatik/Digitale Medien« ein. Die Texte sind alle in den letzten zehn Jahren veröffentlicht worden, meist im Druck, einige online. Als Einzelveröffentlichungen behandeln sie jeweils separate Themen, deshalb werden ihr Ursprung, der Gesamtzusammenhang und die daraus entwickelbaren Perspektiven für Forschung und Lehre an der Leuphana Universität Lüneburg im Folgenden umrissen.
Der Seehund wird in Monitoring-Programmen zum Zustand des Ökosystems Wattenmeer (z.B. TMAP) als ein Indikatororganismus genutzt. Aufgrund der Position im Nahrungsnetz (Top-Prädatoren) und der langen Lebensspanne sind Seehunde besonders stark mit Schadstoffen belastet, u.a. mit Polychlorierten Biphenylen (PCB) und Perfluoroctansulfonat (PFOS). Zahlreiche Studien deuten darauf hin, dass die Schadstoffbelastung die Gesundheit der Seehunde beeinträchtigt. Das Ziel unserer Arbeitsgruppe ist die Identifizierung neuer Biomarker, die im Lebendmonitoring von Seehunden eingesetzt werden können. Ziel der vorliegenden Arbeit war die Ausarbeitung und Etablierung eines Zellkulturmodells, welches in weiterführenden Arbeiten die Identifizierung der Biomarker ermöglicht. Als Biomarker sollen Proteinmuster verwendet werden, die eine Früherkennung von schadstoffbedingten Veränderungen in der Seehundpopulation ermöglichen. Da Hepatozyten an der Metabolisierung von Xenobiotika beteiligt sind, werden sie für das Zellkulturmodell verwendet. Von den Hepatozyten werden in vivo Plasmaproteine synthetisiert, die bei in vitro Experimenten im Zellkulturmedium nachweisbar sind. Diese Proteine könnten anschließend als Biomarker in einem Lebendmonitoring (Blutproben) an Seehunden eingesetzt werden. Für das Zellkulturmodell wurden primäre Seehund-Hepatozyten mit Schadstoffen (PCB, PFOS) in umweltrelevanten Konzentrationen inkubiert. Als Kontrolle dienten Zellen, die nur mit dem jeweiligen Lösungsmittel inkubiert wurden (Isooctan für PCB; DMSO für PFOS). Da in der Literatur bisher keine Isolierung von Hepatozyten aus marinen Säugern beschrieben wurde, musste eine geeignete Isolierungsmethode etabliert werden. Die Methode musste die Isolierung vitaler Hepatozyten aus bereits verstorbenen Tieren in ausreichend hoher Menge ermöglichen. Es wurden verschiedene Isolierungsmethoden getestet von denen sich nur die Leberbiopsie Perfusion eignete. Sämtliche Parameter müssen mit den sich anschließenden Proteomanalysen kompatibel sein. Die Hepatozyten müssen ihre Vitalität nach der Isolierung und während der Kultivierung beibehalten. Zur Analyse der Vitalität wurden der XTT- und LDH-Test (allgemeiner Stoffwechsel und Membranintegrität) angewendet sowie die Harnstoffsynthese (leberspezifischer Stoffwechsel) beurteilt. Mit Hilfe der Zelltests wurde die Vitalität der Hepatozyten im Verlauf einer dreitägigen Kultivierung untersucht und der Einfluss einer Schadstoffinkubation auf die Zellvitalität analysiert. Die Schadstoffe sollen in den eingesetzten Konzentrationen keinen Einfluss auf die Zellvitalität oder Morphologie haben. Die Ergebnisse aus den Vitalitätstests zeigten, dass die verwendeten PCB-Konzentrationen keinen signifikanten Einfluss auf die Vitalität hatten. Eine Aussage zum Einfluss einer PFOSInkubation auf die Zellen (XTT- und Harnstoff-Test) konnte nicht gemacht werden, da die DMSO-Konzentration in den Proben zu hoch gewählt wurde. Die PFOSInkubation hatte keinen signifikanten Einfluss auf die Membranintegrität. Anhand erster Testreihen, die in unserer Arbeitsgruppe realisiert wurden, konnte die Funktionalität des Zellkulturmodells überprüft werden. Hierzu wurden Proteomanalysen von Seehund-Hepatozyten durchgeführt, die mit PCB inkubiert wurden. Erste Ergebnisse zeigten, dass es zu einer signifikanten Hochregulierung der Expressionslevel einiger Proteine kam, die am Schadstoffabbau beteiligt sind. In der vorliegenden Arbeit wurde erfolgreich ein Zellkulturmodell mit primären Seehund-Hepatozyten entwickelt, welches die Identifizierung neuer Biomarker für Seehunde ermöglicht.
Im Bereich der körperlichen Belastungsmessung lässt sich die Zusammenführung von einzelnen Eindrücken zu einem Gesamturteil überall beobachten. Trotzdem sind die ablaufenden Prozesse größtenteils ungeklärt und gerade die Gewichtung der Eindrücke ist kaum nachvollziehbar. In dieser Studie wurden 60 Probanden mithilfe eines Fahrradergometers 7,5 Minuten belastet. Jeder Proband absolvierte 3 Stufen über jeweils 2,5 Minuten mit 50, 75 und 100 Watt in unterschiedlicher Reihenfolge. Alle sechs möglichen Reihenfolgen wurden getestet. Zu jeder der Stufen wurde ein Beanspruchungsurteil erhoben. Zusätzlich wurde nach einem Gesamturteil gefragt. In den Einzelmessungen zeigen sich weder ein Positions- noch ein Carry-Over-Effekt. Trotzdem setzt die erste Beurteilung einen Anker, der sich durch die Beurteilung zieht. Die Gesamturteile der Gruppen unterscheiden sich nicht signifikant voneinander. Dafür lassen sich in der Gewichtung Tendenzen erkennen. Die höchste Stufe von 100 Watt sowie die letzte Stufe scheinen besonderes Gewicht zu bekommen, wobei der Effekt der 100 Watt-Beurteilung den Recency-Effekt überdeckt.
Die Abhandlung gibt einen ersten Überblick über Entstehung, theoretische Hintergründe und Auswirkungen der finanziellen Bürgerbeteiligung im Rahmen der New Public Governance (NPG) in den deutschen Kommunen. Grundsätzlich kann festgestellt werden, dass die Kommunen in Zukunft vor großen sozialen, ökonomischen und ökologischen Herausforderungen stehen, die für ihre nachhaltige Entwicklung von entscheidender Bedeutung sind. Insbesondere der enge finanzielle Handlungsspielraum vieler Städte und Gemeinden in Kombination mit den Auswirkungen der demographischen Entwicklung und Urbanisierungsprozessen in einzelnen Regionen in Deutschland, bedingt neue Konzepte und innovative Herangehensweisen für die öffentliche Aufgabenerfüllung. Ein Bestandteil dieser neuen Form der Aufgabenerfüllung stellen finanzielle Bürgerbeteiligungsmodelle dar. Diese Modelle vereinen öffentliche, For-Profit- und Non-Profit-Elemente in ihren Strukturen und werden in dem Beitrag näher erläutert. Abschließend wird auf das besondere Verhältnis der Sparkassen und Kreditgenossenschaften in Verbindung mit den finanziellen Bürgerbeteiligungen eingegangen.
Fragestellung und Kontext: Inwieweit lässt Strafe im Rahmen einer pädagogischen Intervention in der öffentlichen Erziehung heute erziehungswissenschaftlich und rechtlich Legitimieren? Im Verlauf der 70er und 90er-Jahre verschwand der Begriff ´Strafe´ weitgehend aus der erziehungswissenschaftlichen Diskussion. Rückblickend lässt sich nachvollziehen, dass u.a. Impulse aus der ´Stigmatisierungsdebatte´ wie auch die Erkenntnisse, die unter dem Stichwort ´Schwarze Pädagogik´ Eingang in die Debatte fanden. Parallel etablierten sich engagierte Initiativen, antiautoritär mit Kindern umzugehen, gar, ´antipädagogisch´ ganz auf Erziehung zu verzichten. Formeln wie ´Therapie statt Strafe´ initiierten bis in das Strafrecht hinein den Willen, Begriff und Praxis des Strafens zu überwinden. Der bisherigen Debatte, im historischen Zusammenhang sind zwei Aspekte bemerkenswert: Erstens: Das, was objektiv als Strafe gewollt war oder subjektiv so empfunden wurde, hat nicht aufgehört zu existieren. Das heißt: Auch wenn der Begriff Strafe (Sanktion, Konsequenz, sachlogische Folge) tabuisiert und aus dem Fachvokabular gestrichen wurde, wird im Erziehungsalltag weiterhin gestraft, wie die Studie von Günder, Reidegeld, Müller-Schlotmann (2009), treffend nachweisen. Zweitens: Es hat bisher keine systematische Auseinandersetzung in den Erziehungswissenschaften mit dem Phänomen ´Strafe´ gegeben. Erst im Jahr 2013 (ZJJ Heft 3/2013 und 01/2014) gab es einen Versuch aus aktueller Perspektive ´Erziehung´ und ´Strafen´ mehrperspektivisch zu diskutieren. In diese Lücke (Theorie und Handlungslogik) stößt die vorliegende Untersuchung. Auf der Grundlage eines historischen Überblicks wird ein Ansatz entwickelt, mit der Intention und der Fragestellung, wie das Strafproblem in der Erziehung, zumal der öffentlichen, fachlich beantwortet (gelöst) werden könnte. In der interdisziplinär angelegten Untersuchung, ausgehend von der Beobachtung, das Strafe ein fester Bestandteil der Erziehung sei. Dieser Logik selbstverständlichen, ja fraglosen Verhaltens wird in der vorliegenden Erörterung nachgegangen. Zu klären ist die Bedeutung sowie der Einfluss der ´Alltagstheorien´ auf mögliche punitive Tendenzen im Erziehungsalltag, welche durch die oben erwähnte Studie aus dem 2009 zweifelsfrei begründet werden. Diesen Ergebnissen soll mit Hilfe wissenschaftlicher Theorien entgegengetreten werden. Aus dem dafür in Betracht kommenden Bezugswissen nimmt die Erziehungswissenschaft und Psychologie einen zentralen Stellenwert ein. Des Weiteren wird die Bedeutung des Rechts: Grundgesetz, Familienrecht sowie das SGB VIII betont. Zu klären ist, welche Sanktionen noch vom gegenwärtigen Recht und dem Stand der Fachdiskussion in der Pädagogik gedeckt seien. Das aus dem gesellschaftspolitischem Erziehungsauftrag und den Hilfen zur Erziehung (§ 27 SGB VIII) ablesbar normative Erziehungsverständnis, sei durch einen hohen Anspruch an Funktionalität, Disziplin und soziale Anpassung geprägt. Die Handhabung des ´Strafproblems in der Pädagogik´ sei, trotz der Reformen in den 1980er und 1990er Jahren nach wie vor wesentlich von Alltagstheorien geprägt (Luedtke 2009). Design: Die vorliegende Erörterung ist eine interdisziplinär angelegte, literaturgestützte Untersuchung, die sich ausschließlich auf vorhandenes Wissen/Theorien bezieht.
In der vorliegenden kumulativen Dissertation geht es um das Selbstkonzept von Schülerinnen und Schülern im Kontext schulischer Inklusionsprozesse und aktueller gesellschaftlicher Entwicklungen. Für empirische Studien aus dem Bereich der Selbstkonzept- und Inklusionsforschung stellt die valide und zielgruppengerechte Messung des Selbstkonzepts eine wichtige Voraussetzung dar. In der ersten und dritten Studie wird daher die Entwicklung und Validierung eines deutschsprachigen Messinstruments zur Erfassung des Selbstkonzepts bei Jugendlichen der Sekundarstufe I (Studie I) und bei Grundschülern (Studie III) beschrieben. Es wurden Testanalysen auf der Datenbasis einer Stichprobe von N = 1 907 Schülerinnen und Schülern verschiedener Schulformen (n = 294 Förderschülerinnen und Schüler) und N = 416 Kindern der 4ten Klassenstufe durchgeführt. Konfirmatorische Faktorenanalysen bestätigten die postulierte achtfaktorielle Struktur. Die Messinvarianz über Geschlecht und Schulform konnte belegt werden. Zusammenhänge mit Außenkriterien wiesen auf eine zufriedenstellende Validität der Selbstkonzeptskalen hin. Die Reliabilitätsschätzungen fielen allgemein gut aus. In der zweiten Studie wurde empirisch überprüft, inwieweit sich multiple Selbstkonzeptfacetten von Schülerinnen und Schülern mit und ohne sonderpädagogischen Förderbedarf im Schwerpunkt Lernen (SPF-L) in Abhängigkeit von der Beschulungsart unterscheiden. Zusätzlich wurden das allgemeine und das schulische Wohlbefinden von Schülerinnen und Schülern mithilfe quantitativer und qualitativer Befragungen, im Sinne eines Mixed-Method-Ansatzes, erfasst. Inklusiv beschulte Schülerinnen und Schüler mit SPF-L wiesen ein deutlich schlechteres akademisches Selbstkonzept auf als die Jugendlichen an Förderschulen und die Schülerinnen und Schüler ohne SPF. Für das generelle Selbstwertgefühl, Aussehen und die sozialen Selbstkonzeptfacetten Eltern- und Mitschülerbeziehung zeigten sich keine Unterschiede. Jugendliche mit SPF-L hatten unabhängig von der Beschulungsform ein besseres Selbstkonzept der Lehrerbeziehung. In der vierten Studie wurde anhand einer Stichprobe von N = 2 950 Schülerinnen und Schülern verschiedener Schulformen untersucht, welche Facetten des Selbstkonzepts die wichtigsten Prädiktoren für ein positives generelles Selbstwertgefühl bei Jugendlichen darstellen und ob es Unterschiede hinsichtlich des Geschlechts und der Schulform gibt. Die Ergebnisse zeigten, dass das Selbstkonzept des Aussehens den wichtigsten Prädiktor für ein positives Selbstwertgefühl darstellt; insbesondere für Mädchen. Andere Selbstkonzeptfacetten spielen eine deutlich geringere Rolle.
Die Fragestellung dieses Forschungsvorhabens resultiert aus der Praxis: Was ist ein christliches Hotel? Wie konkretisieren sich die christlichen Wertehaltungen im betrieblichen Alltag eines Hotels in Deutschland? Gibt es in der betrieblichen Praxis Unterschiede zwischen christlichen und nicht christlichen Hotels aus Sicht der Mitarbeiter christlicher Hotels, und wenn ja, welche sind das? Können christliche Hotels ihre Werte im Personalmarketing als Anreize verwenden? Welche Anreize erwarten die Mitarbeiter christlicher Hotels grundsätzlich von ihren Arbeitgebern? Gibt es Unterschiede in den Bewertungen der Wichtigkeit der christlichen Ausrichtung christlicher Hotels je nach Glaubenszugehörigkeit (christlich, andere, ohne) der Mitarbeiter? Da die Anwendung bzw. Konkretion christlicher Werte im betrieblichen Kontext nicht vom kulturellen außerbetrieblichen Umfeld getrennt betrachtet werden kann, beziehen sich die vorliegenden Ausführungen allein auf christliche Hotels in Deutschland. Das Objekt „Christliches Hotel“ wurde bislang in der Forschungsliteratur noch nicht näher beschrieben. Um den Forschungsgegenstand "Christliches Hotel" zunächst näher zu beschreiben, wird das in der Qualitätsdiskussion bekannte EFQM Excellence Modell herangezogen und anhand des Werteinventars unternehmensrelevanter christlicher Werte auf die Hotellerie übertragen. Dieses entwickelte EFQM Excellence Modell - auch EFQM Excellence Modell Hotel "C" genannt - dient einer ersten Konkretion des Forschungsgegenstandes und bildet zum anderen die Basis für die empirische Studie. Hierfür wurden 276 Mitarbeiter christlicher Hotels befragt, wie sie die im Rahmen des EFQM Excellence Modell Hotel "C" konkretisierten Werte im Management ihres Arbeitgeberhotels wahrnehmen und im Vergleich zu nicht christlichen Hotels und zudem bezüglich der Wichtigkeit bewerten. Die Studienergebnisse zeigen, dass die befragten Mitarbeiter christliche Hotels in den EFQM Konstrukten Führung, Strategie, Mitarbeiter und Prozesse, Produkte und Dienstleistungen sowie in den kulturbezogenen Konstrukten Christliche Werte und Ergänzende christliche Werte im Vergleich zu nicht christlichen Hotels als signifikant besser bewerten. Christliche Werte, sofern sie nicht explizit als solche bezeichnet werden, sind den Mitarbeitern christlicher Hotels in Deutschland unabhängig von ihrer Glaubenszugehörigkeit gleich wichtig. Christlich gläubigen Mitarbeitern christlicher Hotels in Deutschland ist - explizit gefragt - die christliche Ausrichtung ihres Arbeitgebers signifikant wichtiger als Mitarbeitern ohne Glaubenszugehörigkeit. Christliche Werte spielen für die Mitarbeiter christlicher Hotels in Deutschland zusammenfassend eine wichtige Rolle. Diese immateriellen Werte sind starke Beitrags- und Bleibeanreize, die christliche Hotels im Personalmarketing verwenden können. Dies gilt umso mehr, wenn die christlichen Werte von den christlichen Hotels in Deutschland nicht nur explizit als solche zusammenfassend genannt, sondern konkret und vor allem realitätsgetreu dargestellt werden.
Körperliche Aktivität birgt hohe gesundheitliche Gewinne, wenn sie regelmäßig und dauerhaft praktiziert wird. Bestimmend für Verhaltensqualität und -prognose sind befriedigte implizite Motive. Stimmen sie mit den expliziten Zielen der Person überein, entsteht Wohlbefinden und Motivation. Welche psychogenen Motivprofile bei Personen im Präventionssport dominieren, ist unbekannt und wurde hier qualitativ untersucht. Mittels semiprojektiven Foto-Elicitation Interviews, speziell der Zaltman Metaphor Elicitation Technique, wurden acht Probanden qualitativ zu expliziten Zielen und impliziten Motiven ihrer körperlicher Aktivität im Präventionssetting befragt. Ihr Involvementniveau zu aktivem Gesundheitshandeln wurde zuvor standardisiert erhoben. Ausgewertet wurde durch induktive Inhaltsanalyse nach Mayring sowie bildmetaphorisch nach Lakoff und Johnson, ein motivationales Netzwerk kartiert und die Ergebnisse kommunikativ validiert. Die Analyse ergab fünf explizite Handlungsgründe für gesundheitsförderliche körperliche Aktivität, die teils bekannte Ziele des Freizeitsports bestätigen, teils neue Aspekte aufdecken. Insbesondere das explizite Ziel Regeneration und seine Affektqualität scheinen die Motivation zu verstärken. Die erhobenen hohen Ausprägungen des impliziten Leistungs- und Autonomiemotivs waren mit positiven Affekten und Wohlbefinden assoziiert. Anschluss- und Machtmotive blieben unauffällig. Wesentliche Genderunterschiede zeigten sich bei keinem der Partialergebnisse.
In der Dissertation werden Bildwissenschaft und Didaktik miteinander zu verknüpft. So eine Kunstvermittlung mit einer Ausrichtung an Bilderfragen und Bildgebrauch entworfen, wobei eine Orientierung an vorhandenen Didaktiken erfolgt. Außerdem wird Methodik und ein Modell zur der Bildinterpretation entwickelt, die Handlungs- und Subjektorientierung einbeziehen. In dem ersten Teil der Arbeit steht vor allem die bildwissenschaftliche Grundlage im Vordergrund. So wird in diesem Teil die Veränderung des Bildbegriffs und Bildverständnisses reflektiert und thematisiert. Ein breiter Bildbegriff (unterschiedliche Formen, Funktionen und Zuschreibungen inbegriffen), der Bereich der Zuschreibung und die Rolle des Betrachters stehen im Fokus. In dieser Auseinandersetzung mit der Thematik ergibt sich vor allem der Bildgebrauch als ein neuer Weg der Bilderfassung. Außerdem ist die Rolle des Betrachters von Bildern nicht mehr nur eine rezipierende, sondern auch die des Umgangs und des Gebrauchs von Bildern Zusätzlich erfolgt die Verknüpfung der gewonnen Erkenntnisse im Bereich der Kunstpädagogik. Hierzu werden allgemeine und Kunstdidaktiken untersucht und speziell auf die Bereiche Bildverstehen und Handlungsorientierung bezogen. Aus aktuellen Tendenzen der Kunstpädagogik werden die Fokussierung der Wahrnehmung sowie eine Einbeziehung technologischer und nicht-technologischer Wahrnehmungsräume abgeleitet. Theorien zu Potentialen von Bildern ergänzen dies und führen Bildwissenschaft und Didaktik zusammen. Durch Subjektorientierung wird letztlich eine Zuspitzung auf die Notwendigkeit einer Handlungsorientierung und des Bildgebrauchs vorgenommen. Im Modell zur Bildvermittlung werden die fachlichen und didaktischen Erkenntnisse eingebracht. Perzeptbildung, Kontexte (mit Berücksichtigung von Konzept und Allocation) sowie der übergreifende Schritt der Bildhandlungen werden generiert. Abgestimmt auf den Betrachter und das Bild werden die Schritte mit Methoden angereichert. In einem exemplarischen Schulversuch wird dieses Modell umgesetzt und reflektiert.
Biozide Wirkstoffe sind Chemikalien, die zum Schutz der menschlichen oder tierischen Gesundheit oder zum Schutz von Materialien vor Schädlingen eingesetzt werden. Monitoringergebnisse lassen vermuten, dass diese Wirkstoffe auch häufig im Innenraum von Haushalten eingesetzt werden und von dort vor allem über Abwasserleitungen und Kläranlagen in die Umwelt gelangen, wenn sie in Kläranlagen nicht eliminiert werden. Die Produkte, aus denen die Wirkstoffe aus Haushalten in das Abwasser gelangen, sind bislang jedoch nicht identifiziert worden. Aus diesem Grund konnten die daraus resultierenden Umweltbelastungen nicht eingeschätzt und keine entsprechenden Emissionsminderungsmaßnahmen umgesetzt werden. In dieser Arbeit wurde deshalb untersucht, in welchen Haushaltsprodukten biozide Wirkstoffe eingesetzt werden und in das Abwasser gelangen. Zudem sollte erforscht werden, was die Haushaltsmitglieder über Biozidprodukte wissen und wie sie mit ihnen umgehen. Ziel war es, die Anwendungen von bioziden Wirkstoffen in Haushalten zu identifizieren, von denen die höchsten Umweltbelastungen zu erwarten sind, und geeignete Emissionsminderungsmaßnahmen abzuleiten. Um die Anwendung biozider Wirkstoffe in Haushalten zu untersuchen, wurde zunächst durch eine Befragung in Haushalten eines dörflichen Wohngebietes ermittelt, was die Haushaltsmitglieder über Biozidprodukte wissen und wie sie die damit verbundenen Risiken im Vergleich zu anderen Haushaltsprodukten einschätzen. Zudem wurde für jeden der teilnehmenden Haushalte ein Inventar der vorhandenen Produkte erstellt. Dabei wurden neben den Biozidprodukten auch Wasch- und Reinigungsmittel und Körperpflegeprodukte untersucht. Ähnliche Erhebungen fanden zusätzlich in Haushalten in urbanen Gebieten statt. Die aufgrund der inventarisierten Produkte zu erwartenden Stoffe wurden im Laufe eines Jahres durch ein speziell abgestimmtes Monitoringprogramm im Abwasser des dörflichen Wohngebietes in Tages- und Stundenmischproben untersucht. Alle Proben wurden nach der Probenahme aufgearbeitet und mittels Flüssigchromatographie gekoppelt mit einem Triple-Quad-Massenspektrometer analysiert. Dabei wurden die Konzentrationen von 14 Wirkstoffen gemessen: 1,2-Benzisothiazol-3(2H)-on (BIT), C12-Benzalkoniumchlorid, Carbendazim, 5-Chlor-2-methyl-2H-isothiazol-3-on (CMIT), Dichloroctylisothiazolinon (DCOIT), N,NDiethyl-meta-toluamid (DEET), Diuron, Icaridin, 2-Octyl-2H-isothiazol-3-on (OIT), Piperonylbutoxid (PBO), Triclosan, Tebuconazol, Terbutryn und Tetramethrin. Vielen Befragten war nicht bewusst, dass sie Biozidprodukte nutzen. Der Begriff "Biozid" war oft nicht bekannt und wurde inhaltlich häufig falsch verstanden. Die Auswertungen der inventarisierten Produkte und der darin enthaltenen bioziden Wirkstoffe zeigten, dass ein Großteil der Wirkstoffe nicht aus Biozidprodukten in das Abwasser gelangt, sondern aus Körperpflegeprodukten und Wasch- und Reinigungsmitteln. Insgesamt 64 % der Anwendungen von bioziden Wirkstoffen in den inventarisierten Produkten wurden nicht unter der Umweltrisikobewertung der Verordnung (EU) 528/2012 über die Bereitstellung auf dem Markt und die Verwendung von Biozidprodukten berücksichtigt, was zu einer erheblichen Unterschätzung der Umweltrisiken führt. Die Ergebnisse der Abwasseruntersuchungen deuten ebenfalls darauf hin, dass biozide Wirkstoffe aus Wasch- und Reinigungsmitteln, Körperpflegeprodukten und Biozidprodukten gleichermaßen in das Abwasser eingetragen werden. Die Messergebnisse können gut mit den Produktinventaren in Verbindung gebracht werden. Einige Wirkstoffe scheinen maßgeblich durch Biozidprodukte eingetragen zu werden. Auch Konservierungsmittel wurden regelmäßig nachgewiesen. Für Triclosan hingegen ist gemäß den Inventaren Zahnpasta vermutlich die Produktgruppe, die in dem untersuchten Wohngebiet maßgeblich für den Eintrag ins Abwasser verantwortlich ist. Diese Arbeit zeigt zum ersten Mal, welche Produkte im Haushalt eine wichtige Quelle für biozide Wirkstoffe im Abwasser sind. Sie müssen mit einbezogen werden, wenn Emissionen an der Quelle reduziert werden sollen. Es sollten Maßnahmen ergriffen werden, die über die Produktzulassung von Biozidprodukten hinausgehen, um die Emissionen so gering wie möglich zu halten. Diese Maßnahmen sollten sich nicht darauf beschränken, die Bevölkerung über Biozidprodukte aufzuklären und zu sensibilisieren. Stattdessen sollten Maßnahmen früher in der Wertschöpfungskette ansetzen, wie zum Beispiel beim Design der Wirkstoffe oder der Formulierung der Produkte, um so Einträge biozider Wirkstoffe in die Umwelt zu verringern.
Unter Wirkungsbezogener Analytik (WBA) wird die Kopplung eines chromatographischen Trennverfahrens mit einem biologischen Testsystem verstanden. Der Vorteil bei dieser Herangehensweise ist, dass die zuvor getrennten Probeninhaltsstoffe anhand ihrer Aktivität mit einem in vitro-Testsystem detektiert werden. Es hat sich gezeigt, dass die Hochleistungsdünnschichtchromatographie (HPTLC) besonders geeignet für die WBA ist. Bislang konnte nicht gezeigt werden, dass die WBA mit HPTLC auch als routinefähige Methode eingesetzt wurde. In dieser Arbeit erfolgte eine Optimierung der Detektion der Endpunkte Biolumineszenzhemmung (Aliivibrio fischeri), antibiotische Wirkung (Bacillus subtilis), Neurotoxizität (Acetylcholinesterase) von der HPTLC-Platte hinsichtlich Routinefähigkeit. Zusätzlich konnte in ersten Versuchen gezeigt werden, dass es möglich ist, direkt gentoxische Verbindungen mittels des umu-Tests auf der HPTLC-Platte nachzuweisen. Für die einzelnen Biotests sind unterschiedliche Inkubationszeiten notwendig. Dies führt aufgrund von Diffusion auf der HPTLC-Platte zu einer Bandenverbreiterung. Es wurden unterschiedliche Methoden und Arbeitsweisen zur Verminderung der Diffusion erprobt und optimiert. Eine Möglichkeit ist die mechanische Eindämmung durch die Einbringung einer Gaze in eine verfestigte Calciumalginatschicht. Optimiert wurde dieses Verfahren am Bacillus subtilis-Hemmtest. Für Enzymtests ist eine vergleichsweise kurze Inkubationszeit notwendig. Daher tritt hier eine geringere Bandenverbreiterung auf, womit eine mechanische Einschränkung der Diffusion nicht geeignet ist. Um die auftretende Bandenverbreiterung möglichst gering zu halten, wurde besonders die Aufbringung des Substrats optimiert. Dies geschah am Beispiel des HPTLC-Acetylcholinesterasehemmtests. Die Ermittlung der unterschiedlichen bandenverbreiternden Einflussfaktoren erfolgte mittels statistisches Versuchsplanung. Anhand der gewonnenen Erkenntnisse konnte die Methode soweit optimiert werden, dass die bei der Detektion von AChE-Inhibitoren auftretende Bandenverbreiterung sehr gering gehalten werden kann. Aufgrund der hohen Empfindlichkeit des Verfahrens lassen sich selbst geringe Spuren von Verunreinigungen in Referenzsubstanzen detektieren. Besonders für den Routineeinsatz der WBA mit der HPTLC ist die Vergleichbarkeit der Ergebnisse erforderlich. Dazu wurde anhand des HPTLC-Leuchtbakterienhemmtests mit Aliivibrio fischeri eine Auswertestrategie erarbeitet. Die Ermittlung der Biolumineszenzhemmung findet analog zum Küvettentest statt und kann ortsaufgelöst als Hemmwert-Chromatogramm dargestellt werden. Die Darstellung der Hemmung in einem Hemmwert-Chromatogramm gleicht die Stauchung der Peaks aufgrund des sigmoiden Verlaufs der Dosis-Wirkungsbeziehung teilweise aus. Durch die nichtlineare Beziehung zwischen Konzentration bzw. Flächenmasse und Wirkung der unbekannten Substanzen ist es für den Vergleich von Proben notwendig, einen Bezugspunkt zu setzen. Bewährt hat sich dafür der EC50-Wert. Da aber in den meisten Fällen die Konzentration unbekannt ist, wird als Bezugspunkt das Auftragevolumen gewählt, welches erforderlich ist um eine Hemmung von 50% auszulösen. Der Kehrwert des berechneten Auftragevolumens für 50% Hemmung stellt das reziproke Iso-Hemmvolumen (RIHV) dar. Dieser RIHV-Wert hat sich für den Probenvergleich in verschiedenen Anwendungen bewährt. Das Prinzip der Auswertung kann vom HPTLC-Leuchtbakterientest mit Anpassung auf den HPTLC-Bacillus subtilis-Hemmtest übertragen werden. Für den Vergleich der Wirkung auf die Acetylcholinesterase-Hemmung wird in Anlehnung zum RIHV, das reziproke Iso-Aktivitätsvolumen (RIAV) herangezogen. Hier wird das Auftragevolumen, welches notwendig ist, eine Aktivität der AChE von 50% zu erreichen, als Kehrwert angegeben. Zur Ermittlung der Messunsicherheit der Chromatographie und der detektierten Wirkung wurden parallel zu den Proben Referenzverbindungen untersucht. Bei der Überwachung einer gesicherten Deponie über einen Zeitraum von 4,5 Jahren konnte gezeigt werden, dass es sich bei der Hochleistungsdünnschichtchromatographie mittels automatisierter Mehrfachentwicklung (HPTLC/AMD) um ein reproduzierbares Chromatographiesystem handelt. Bei der Anwendung des Leuchtbakterien-, Bacillus subtilis- und des Acetylcholinesterase-Hemmtests auf verschiedene Deponie- und Abwasserproben wurden über einen Zeitraum von sieben Monaten Standardabweichungen von 5-9% Hemmung für die testspezifischen Referenzsubstanzen ermittelt. Als Ergebnis der Validierung wurden der HPTLC-Aliivibrio fischeri-, der HPTLC-Bacillus subtilis- und der HPTLC-Acetylcholinesterase- Hemmtest am 24.03.2015 von der deutschen Akkreditierungsstelle (DAkkS) akkreditiert. Zur Ermittlung potenziell gentoxischer Substanzen wurde der umu-Test ausgewählt. Mit dem umu-Test auf der HPTLC-Platte ist es derzeit möglich, die aus der DIN 38415-3 bekannte direkt wirkende gentoxische Substanz 4-Nitroquinolin-N-oxid (4-NQO) auf der HPTLC-Platte nachzuweisen. Für einen erfolgreichen Nachweis von indirekt wirkenden Substanzen, die erst nach der Aktivierung durch Stoffwechselenzyme gentoxisch wirken, war es nicht möglich, das erforderliche Metabolisierungssystem auf der HPTLC-Platte aufrecht zu erhalten. Zur Durchführung der WBA ist für die meisten Wasserproben (z. B. Oberflächenwasser oder Grundwasser) eine Anreicherung erforderlich. Parallel zu den Arbeiten mit den biologischen Testsystemen erfolgte die Optimierung der Anreicherung von organischen Verbindungen aus Wasserproben. Für die Festphasenextraktion (SPE) wurden verschiedene Materialien bei den pH-Werten 2, 7 und 9 mit Substanzen unterschiedlicher Polarität getestet. Die besten Wiederfindungen über den gesamten Polaritätsbereich erzielte die Phase "Agilent Plexa" (Polydivinylbenzol) mit einer angepassten Elutionsabfolge. Bei der Auswahl des Materials und der Anpassung der Elutionsabfolge wurde auch auf einen möglichst geringen Blindwert für den Biolumineszenz-Hemmtest mit Aliivibrio fischeri geachtet. Damit wurde eine für die WBA geeignete Anreicherungsmethode gefunden. Zur Verbesserung der Extraktionsausbeute von polaren Verbindungen mittels Flüssig-Flüssig-Extraktion (LLE) wurde die Mikro-LLE mit dem in allen Verhältnissen mit Wasser mischbaren Extraktionsmittel Acetonitril getestet. Die im Blindwert auftretenden störenden Substanzen konnten durch Ausheizen des zur Phasentrennung erforderlichen Natriumchlorids erheblich reduziert werden. Bei den Untersuchungen zur Wiederholbarkeit mit einer Deponiesickerwasserprobe und der Detektion der Biolumineszenz von Aliivibrio fischeri waren nur geringe Abweichungen der Hemmwerte detektierbar. Aufgrund der zu erwartenden komplexen Zusammensetzung von Proben aus dem Deponiebereich ist eine Gradientenelution für die HPTLC/AMD notwendig. Anhand von Referenzverbindungen und Extrakten aus verschiedenen Deponien wurde die HPTLC/AMD-Trennung für ein Screening optimiert. Mit diesem Screening-Gradient ist es möglich, die wirkenden Probenbestandteile über die gesamte Trennstrecke zu verteilen. Zusätzlich fand noch eine Entwicklung einer isokratischen HPTLC-Trennung für eine schnelle Beurteilung von Proben statt, wobei bei dieser Methode Abstriche bezüglich der Trennleistung gemacht werden mussten. Zudem konnte gezeigt werden, dass der aufwendige Identifizierungsprozess durch spezifische postchromatographische Derivatisierungsreaktionen auf der HPTLC-Platte unterstützt werden kann. Dazu wurde der Bratton-Marshall-Nachweis von primären Aminen optimiert. Durch den Nachweis von austauschbaren Protonen mittels des H/D-Austausches lassen sich die denkbaren Strukturen deutlich einschränken. Für einen nahezu vollständigen H/D-Austausch hat sich die Kopplung von HPTLC und Massenspektrometer (MS) als besonders geeignet gezeigt, da hier nur wenige Milliliter an deuterierten Lösemitteln benötigt werden. Erprobt wurden die optimierten Methoden an verschiedenen Wässern, welche aus Kläranlagen und aus dem Umfeld von Deponien stammen. Durch die Einführung des RIHV- bzw. RIAV-Wertes ist es möglich Wässer von verschiedenen Probennahmestellen, z. B. Deponiesickerwässer, anhand ihrer Wirkung vergleichend zu beurteilen. Auch kann damit die Veränderung des Wirkungsmusters über einen Aufbereitungsprozess beobachtet werden. Die Untersuchungsergebnisse zeigen zudem, dass auch bei der WBA Feldblindproben entscheidend sind, um Proben sicher beurteilen zu können.
Gegenstand der Wissenssoziologischen Diskursanalyse (WDA) ist der sozialpolitische Diskurs zur Weiterentwicklung der Eingliederungshilfe für Menschen mit Behinderungen in der Zeit von 2005 bis 2016. Im Rahmen der WDA wurden zwei Diskursformationen, die die Weiterentwicklung der Eingliederungshilfe notwendig machen erarbeitet: Der Kapazitätendiskurs, der einen monetären Sachzwang konstituiert, auf der einen und der emanzipatorisch-bürgerrechtliche Diskurs, der die Nichtpassung des gegenwärtigen Hilfesystems mit menschenrechtlichen Bestrebungen einer gleichberechtigten und selbstbestimmten Teilhabe am Leben in der Gesellschaft thematisiert, auf der anderen Seite. Zudem wurde die diskursive Konstituierung des zentralen Reformkonzepts "Personenzentrierung", das produzierte Wissen über dieses Konzept, die Strategien der beteiligten Akteure, die mit dem Konzept verfolgt werden, und die dahinterliegenden Deutungsmuster de- und rekonstruiert. Personenzentrierung konstituiert sich insbesondere durch ihre Abgrenzung zu der nicht mehr gewollten, paternalistischen und tendenziell kostenaufwendigen Institutionenzentrierung. Sie beschreibt einen Steuerungsmodus, der mit der Zentrierung des Individuums als zentrales Steuerungsmoment im Leistungsgeschehen und deren Vorstellungen, ihre Leben zu führen, die je passgenauen Leistungen je individuell komponiert (Hilfe folgt Bedarf). Die doppelte Anschlussfähigkeit von Personenzentrierung an die ausgehenden Problemdiskurse offenbart zwei zentrale Deutungsfiguren: Personenzentrierung wird einerseits zu einem sozialpolitischen Steuerungsinstrument, das bedarfsgerechtere und effizientere Leistungen organisiert und Leistungsberechtigte zur Mitwirkung aktiviert, um damit Kosten zu sparen, und andererseits zu einem Selbstbestimmungskonzept, das Leistungsberechtigte aus paternalistisch-fürsorglichen Strukturen befreit und sie als Experten ihrer eigenen Teilhabebedarfe in den Mittelpunkt rückt.
Der Anteil der Menschen, die persönlich oder familiär einen Herkunftsbezug zu Ländern außerhalb Deutschlands aufweisen, steigt seit Jahren an. Diese Menschen werden in der Bevölkerungsstatistik als Personen mit Migrationshintergrund erfasst, wobei vor allem die eigene Staatsangehörigkeit eine Rolle spielt, sowie diejenige der Eltern. In den Mobilitäts- und Verkehrswissenschaften ist das Wissen über diese Bevölkerungsgruppe in Deutschland sehr gering und fragmentiert. Wenig ist bekannt über das Vorhandensein von Nutzungsvoraussetzungen wie Führerscheinbesitz oder der Fähigkeit Fahrrad fahren zu können, über die Verfügbarkeit verschiedener Verkehrsmittel oder über das alltägliche Mobilitätsverhalten. Auffallend ist diese Lücke vor allem im Vergleich mit den USA, wo sich Verkehrs-, Bildungs- und Gesundheitswissenschaften mit dem Mobilitätsverhalten von Migranten beschäftigen. Ziel dieser Arbeit ist es, diese Wissenslücke für Deutschland zu verkleinern. Dabei stellt sich die Frage, ob sich Menschen mit Migrationshintergrund unter den hiesigen Rahmenbedingungen in ihren Mobilitätsvoraussetzungen und in ihrem alltäglichen Mobilitätsverhalten von den Menschen ohne Migrationshintergrund unterscheiden. Darüber hinaus ist die Identifikation wichtiger Einflussfaktoren zur Erklärung des Verhaltens von besonderem Interesse. Grundlage ist eine - teilweise explorativ angelegte - empirische Studie zum Mobilitätsverhalten von Menschen mit und ohne Migrationshintergrund in Offenbach am Main, die 2010 im Rahmen eines Forschungsprojekts am ILS-Institut für Landes- und Stadtentwicklungsforschung gGmbH durchgeführt wurde. Die Ergebnisse zeigen sowohl Gemeinsamkeiten als auch Unterschiede zwischen den Gruppen. Diese betreffen soziodemografische und -ökonomische Faktoren, mobilitätsbezogene Voraussetzungen wie Führerscheinbesitz oder Verkehrsmittelverfügbarkeit, Fragen zur Mobilitätskultur im Elternhaus, aber vor allem die alltägliche Nutzung verschiedener Verkehrsmittel. Die Ergebnisse werden in dieser Arbeit in Artikelform kumulativ präsentiert und durch einen einrahmenden Text eingeleitet, eingeordnet und im Zusammenhang diskutiert.
Die vorliegende Dissertationsschrift orientiert sich an dem soziologischen Verständnis von Zeit als Gestaltungsprinzip (Elias 1984) und der damit verbundenen Bedeutung für institutionell-pädagogische Zeitgestaltungen. Im Rahmen einer qualitativen - und ethnografisch orientierten - Fallstudie wird herausgearbeitet, wie sich die kindlichen Zeitpraktiken in unterschiedlichen Institutionen der frühen Bildung und im Übergang zur Grundschule mit ihren je besonderen institutionellen Zeitordnungen ausprägen. Die empirischen Befunde zeigen, dass die Fach- und Lehrkräfte auf normierte Ablaufmuster und Vorgaben zur Zeitnutzung zurückgreifen und sich spezifischer Disziplinierungspraktiken bedienen, um die Kinder in die vorherrschende soziale Zeitordnung und das darin verwobene generationale Arrangement einzupassen. Verstärkt durch die zeitlichen Anforderungen des institutionellen Alltags verengen sich die erwachsenen Zeitpraktiken immer wieder zu den gleichen Handlungsweisen; insbesondere die Tendenzen zur Beschleunigung und Verdichtung sind als Gestaltungsmodi beobachtbar. Ungeachtet dessen verdeutlichen die Erkenntnisse weiterhin, dass sich die kindlichen Zeitpraktiken in Formen ausprägen, die häufig nicht den sozial vorherrschenden Handlungspraktiken und Handlungslogiken folgen, sondern vielmehr auf einer eigenen Sinngebung beruhen. Im Vergleich zu den Erwachsenen kommt diese zeitliche Eigenart dadurch zum Ausdruck, dass Kinder Gegenständen andere Bedeutungen und Funktionen beimessen, andere Formen des Handlungsvollzuges praktizieren und sich auch in je besonderen Geschwindigkeitsmodi bewegen. In ihrem spezifischen zeitlichen Handeln lassen sich die Kinder bewusst nicht von den Vorgaben zur Zeitnutzung stören bzw. unterwandern diese immer wieder auch zielgerichtet. Angesichts der divergierenden Handlungspraktiken von Erwachsenen und Kindern geht der Alltag mit regelhaften Zeitkonflikten einher, die sich zulasten der kindlichen Persönlichkeitsentwicklung, des Erwerbs von Zeitkompetenz wie auch der Arbeitsbedingungen des Personals auswirken können, weshalb eine weitere Intensivierung einschlägiger Zeitforschungen bedeutsam erscheint.
Aufbauend auf einem interdisziplinären Modell, das sowohl kognitionspsychologische als auch mathematikdidaktische Fähigkeiten beim Schätzen von visuell erfassbaren Größen (Längen, Flächeninhalte, Fassungsvermögen, Rauminhalte) beinhaltet, und einem Modell zur Systematisierung verschiedener Aufgabenmerkmale wurde im Rahmen dieses Dissertationsprojekts ein schriftlicher Schätztest entwickelt. Der Schätztest beinhaltet insgesamt 48 Items, deren Merkmale zwischen den Größen parallelisiert und gleich verteilt sind (12 Items pro Größe) Die Daten des Tests werden genutzt, um verschiedene Arten der Ermittlung und Bewertung von Schätzgenauigkeit zu untersuchen, die Schätzgenauigkeit von Kindern der vierten, fünften und sechsten Klasse zu ermitteln und um den Zusammenhang der vier Größen zu beschreiben. Die Untersuchung verschiedener klassischer Fehlerberechnungs- und Bewertungsarten zeigt wesentliche Unterschiede in Testleistung und Testgüte. Die Berechnung des logarithmischen Fehlers in Verbindung mit einem logarithmischen Scoring wird als ein alternatives Verfahren genutzt. Die Analyse der Schätzergebnisse von 900 Kindern zeigt, dass sich die Schätzgenauigkeit von Kindern der vierten und sechsten sowie fünften und sechsten Klassen signifikant unterscheidet: Kinder aus höheren Jahrgängen schätzen genauer als Kinder aus niedrigeren Jahrgängen. Es konnte kein signifikanter Unterschied bei der Schätzgenauigkeit zwischen Kindern der vierten und fünften Klassen festgestellt werden. Darüber hinaus unterscheidet sich Schätzgenauigkeit signifikant zwischen den Größen: Längen werden am genauesten geschätzt, gefolgt von Fassungsvermögen, Flächeninhalten und Rauminhalten. Alle Größen korrelieren bezüglich der Schätzgenauigkeit moderat miteinander. Die Schätzgenauigkeit von Längen kann als Prädiktor für die Schätzgenauigkeit der anderen Größen herangezogen werden.