Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (241)
- Research Paper (115)
- Bachelorarbeit (79)
- Bericht (61)
- Diplomarbeit (60)
- Masterarbeit (50)
- Teil eines Buches (Kapitel) (41)
- Arbeitspapier (40)
- Wissenschaftlicher Artikel (20)
- Buch (Monographie) (17)
- Beitrag in Konferenzband (13)
- Konferenzveröffentlichung (9)
- Sonstiges (7)
- Habilitation (6)
- Magisterarbeit (5)
- Rezension (4)
- Zeitschrifteneinzelheft (3)
- Studienarbeit (3)
Sprache
- Deutsch (774) (entfernen)
Volltext vorhanden
- ja (774) (entfernen)
Schlagworte
- Nachhaltigkeit (25)
- Informatik (18)
- Kultur (16)
- Lehrkräfte (14)
- Schule (14)
- Lüneburg (13)
- Kooperation (12)
- Fortbildung (11)
- Visualisierung (11)
- Ausbildung (10)
Institut
- Frühere Fachbereiche (314)
- Fakultät Bildung (76)
- Fakultät Nachhaltigkeit (59)
- BWL (52)
- Fakultät Wirtschaftswissenschaften (48)
- Fakultät Kulturwissenschaften (44)
- Institut für Nachhaltigkeitssteuerung (INSUGO) (17)
- Professional School (17)
- Institut für Kultur und Ästhetik Digitaler Medien (ICAM) (13)
- Institut für Management und Organisation (IMO) (13)
Ein wesentlicher Beitrag zur rationalen Verwendung unserer Energieresourcen kann durch die konsequente Nutzung diskontinuierlich anfallender Wärmeenergie erbracht werden, was aufgrund der zeitlichen Verschiebung von Wärmeangeboten und Wärmebedarf auf direktem Wege oft nicht möglich ist. Dies gilt sowohl für die Nutzung anfallender Abwärme aus Kühlprozessen als auch den ökonomiaschen Einsatz von Solarenergie. Dazu ist erforderlich, mit Hilfe eines effizienten Energiespreichers den überschüssigen Energieanfall zu verlagern.
Die Alkoholproblematik am Arbeitsplatz stellt einen wichtigen Teilaspekt der allgemeinen Suchtproblematik dar. In der vorliegenden Arbeit wird dargestellt, welche Möglichkeiten, aber auch welche Grenzen des hilfreichen Handelns am Arbeitsplatz allgemein und am Arbeitsplatz Universität insbesondere gegeben sind. Die Arbeit ist in vier Hauptteile gegliedert, die Gegenstand und Prozeß nachvollziehbar beschreiben. Im Teil I wird ausgehend von der Ätiologie und der Pathogenese die Funktion und Bedeutung der Droge Alkohol in der Gesellschaft beschrieben und der Zusammenhang zwischen Arbeitsbedingungen und Konsumverhalten dargelegt. Die Vorstellung eines Modells betrieblicher Alkoholprävention schließt sich im Teil II an. Die Implementierung eines Alkoholprogrammes an der Pilot-Universität wird im Teil III beschrieben. Unter Berücksichtigung erster Forschungsergebnisse wird ein Handlungskonzept für die Alkoholprävention an der Pilot-Universität formuliert, in dem jedoch Organisationsstruktur und Organisationskultur von Universitäten und Hochschulen noch nicht ausreichend berücksichtigt sind. Im letzten Teil der Arbeit wird daher der Versuch unternommen, ein Konzept zu entwerfen, das sich an der Methode der Organisationsentwicklung orientiert.
Bilder und Worte sind kulturelle Errungenschaften beträchtlicher Erfindungshöhe. Beide legen einen Ausschnitt des Interesses fest, beide isolieren semantische Elemente aus dem komplexen Strom kommunikativer Akte. Doch hat in Hinblick auf Indizierung die Erfindung von Wörtern einen besonderen Vorteil den Bildern gegenüber: es gibt nur endlich viele von ihnen, die auf einen bestimmten Begriff verweisen, es können Lexika geschrieben werden, die diesen Zusammenhang kodifizieren, und diese Lexika können alphabetisch geordnet sein, so die Brücke zwischen der Semantik und dem Berechenbaren schlagend.
E-Commerce, E-Business und Online-Shops sind gängige Themen in Wirtschaftszeitschriften. Jedoch werden Internet-Unternehmen in letzter Zeit nicht mehr sehr grosse Erfolgsaussichten eingeräumt. Die vorliegende Arbeit beschäftigt sich daher mit den kritischen Erfolgsaussichten von Electronic-Commerce-Firmen und ist in erster Linie für Unternehmen interessant, die einen Online-Shop betreiben oder aufbauen möchten.
Im Rahmen der Diplomarbeit wurde für eine Robotersteuerung eine neue, möglichst universelle Datenschnittstelle entworfen und implementiert. Als standardisiertes Format wird dabei XML eingesetzt.
Ziel der Diplomarbeit ist der Entwurf eines Klassifizierungssystems für Fräswerkzeuge sowie die Entwicklung einer darauf aufbauenden Werkzeugverwaltung.
Evaluation des Lehramtsstudiengangs aus der Sicht der Studierenden an der Universität Lüneburg
Es geht um „governance“ in vertikalen Produktions- und Handelsketten, die agrarische Rohstoffproduktion in Entwicklungsländern und industrielle Verarbeitung in Industrieländern in Sequenzen von Unternehmen und Märkten miteinander verbinden.
Der Aufsatz beschreibt die Erfahrungen im Bereich des Electronic Government (E-Government), die im Rahmen des Forschungsprojektes eGOV gemacht wurden. Die Bedeutung von E-Government als Reform- und Modernisierungskonzept erfreut sich wachsender Beachtung.
Die vorliegende Diplomarbeit entstand im Rahmen eines Praxissemesters in der Marketinggesellschaft für niedersächsische Agrarprodukte in Hannover. Sie beschäftigt sich mit Qualitätssicherungssystemen und Zertifizierung in der Agrarwirtschaft, die durch die Verunsicherung der Verbraucher im Kontext BSE und anderer Lebensmittel-Skandale immer mehr an Bedeutung gewinnen.
Die vorliegende Arbeit beschäftigt sich mit den Ausprägungen des Shareholder Value Konzeptes im Rahmen des Investitionscontrollings.
Die Arbeit untersucht, ob die Wahrnehmung einer Filmszene verändert wird, wenn eine kontrapunktierende Musik oder eine Actionmusik erklingt. Als Orientierung diente die musikfreie Originalfassung der Actionsszene. Am Beispiel von Szenen aus „Gladiator“, „Titanic“ und „Dreamcatcher“ wurde anhand von 1212 Studenten festgestellt, dass die visuelle Ebene zu dominierend ist, und die Versuchspersonen unabhängig von der musikalischen Untermalung stets ähnliche Urteile abgaben. Die Wahrnehmung der Filmszene wird nicht durch die o.a. Musiken verändert.
Die Befragung Lüneburger Handwerksbetriebe, die im Rahmen eines Projektes zur Regulierung auf dem deutschen Handwerksmarkt in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführt wurde, soll Auswirkungen der Anfang 2004 erfolgten Handwerksreform erfassen. Dabei liegt der Schwerpunkt dieses Artikels auf der Ausbildungsleistung des Handwerks. Die theoretischen Ansätze zur Erklärung betrieblicher Lehrstellenangebote sollen mit den Ergebnissen der ersten Befragungsrunde über die Determinanten der Ausbildungsentscheidung im Lüneburger Handwerk konfrontiert werden.
Die Anfang 2004 durchgeführten Reformen auf dem Handwerksmarkt hatten vor allem eine Erleichterung des Marktzutritts und damit mehr Wettbewerb zum Ziel. Die erwartete Zunahme der Anbieter, durch die es zu sinkenden Preisen und einer steigenden Nachfrage kommen soll, konnte zumindest auf Teilmärkten beobachtet werden. Der Artikel soll anhand von Beispielen des sehr heterogenen Handwerksmarkts aufzeigen, wie sich der Wettbewerb unter der Annahme unterschiedlicher mikroökonomischer Modellkonstellationen (vollständige Konkurrenz, Monopol, monopolistische Konkurrenz und Qualitätswettbewerb) entwickelt. Auf Grundlage einer Ende 2004 in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführten Befragung Lüneburger Handwerksbetriebe sollen dazu erste ökonometrische Auswertungen vorgestellt werden, die sich mit den Auswirkungen der Reform auf die wirtschaftliche Lage der Betriebe befassen.
Die vorliegende Arbeit beschäftigt sich mit einer Methodik, wissensbasierte Kommunikation in einem verteilten System zu realisieren. Als Szenario dient der Organic Room, ein Raum mit intelligenter Haustechnik, der sich möglichst eingenständig an die Bedürfnisse des Menschen anpasst und sich dabei energieeffizient verhält.
Für die Neufassung der Handwerksordnung zum 1.1.2004 war die hohe Ausbildungsleistung des Handwerks ein zentrales Argument, die im Falle einer überzogenen Deregulierung einbrechen würde. Folgt man der ökonomischen Theorie werden Handwerksbetriebe ausbilden, wenn der erwartete Nutzen die erwarteten Kosten überwiegt; Ausbildung wird zum unternehmerischen Erfolgsfaktor. Die zweimalige Befragung Lüneburger Handwerksbetriebe, die im Rahmen eines Projektes zur Regulierung auf dem deutschen Handwerksmarkt in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführt wurde, zeigt, dass vor allem die Ausbildungsaktivität selbst zu einer guten bis sehr guten wirtschaftlichen Lage führt bzw. diese verbessert. Allerdings ist dieser Effekt nach relativ kurzer Frist (zwei Jahre oder mehr) wieder verschwunden.
Text zum Ausstellungskatalog von Franz John: Turing Tables.
Die Ensembles der bildenden Künstlerin Anna Oppermann (1940-1993) zeichnen sich durch ihre Selbstreferentialität, durch ihre vielfältigen Verknüpfungen und Verflechtungen der einzelnen Elemente untereinander aus und bilden so tiefgründige Erfahrungs- und Assoziationsräume. Im Rahmen des Forschungsprojekts "Hypermediale Bild-, Text-, Videoarchive zur Dokumentation komplexer Artefake der Bildenden Kunst" beschäftigt sich seit 1997 eine Gruppe von Wissenschaftlern und Studenten an der Universität Lüneburg mit der strukturerhaltenden Dokumentation einiger wichtiger Ensembles in Bild, Text, innerem Aufbau und wechselseitiger Verknüpfung.
Die unternehmensinterne Kommunikation (IK) ist ein brisantes Thema, das bereits aus vielen Perspektiven heraus beleuchtet wurde. Trotz zahlreicher wissenschaftlicher Bemühungen sich dem Thema anzunehmen, ist bei vielen Mitarbeitern von Unternehmen bis heute eine Unzufriedenheit mit der nach innen gerichteten Kommunikationspolitik der Arbeitgeber zu beobachten. Diese lässt eine mangelnde gegenseitige Bezugnahme von Theorie und Praxis vermuten. In der vorliegenden Arbeit wird zunächst untersucht, was genau sich hinter dem „Modewort“ Kommunikation verbirgt. Dabei werden verschiedene Kommunikationsmodelle vorgestellt, die Hinweise darauf liefern, welche Aspekte beim Entwurf einer zeitgemäßen Kommunikationsauslegung zu berücksichtigen sind. Basierend auf den so gewonnenen Erkenntnissen wird ein eigenes Begriffsverständnis abgeleitet, das darum bemüht ist, der hohen Komplexität des Phänomens gerecht zu werden. Hervorzuheben ist dabei, dass Kommunikation immer gleichzeitig einen äußerlichen und einen innerlichen Prozess beschreibt, der es schwierig macht, diesen zu planen bzw. dessen Wirkung vorauszusagen. Wie gleich zu Beginn der Abhandlung erkennbar wird, weisen eine Reihe von Entwicklungen innerhalb von Unternehmen sowie in deren Umfeld auf die Notwendigkeit hin, dass es auch im internen Kommunikationsbereich zu Veränderungen kommt, die den sich wandelnden Rahmenbedingungen der Informationsprozessierung Rechnung tragen. Hervorzuheben sind in diesem Zusammenhang insbesondere „neue“ Organisationsstrukturen, veränderte Ansprüche von Mitarbeitern an die IK und die Durchdringung dieser mit immer neuen Medien. Diese drei grundsätzlichen Tendenzen stehen in direkter Verbindung zueinander und stellen Unternehmen -genau wie ihre Mitarbeiter- vor neue Herausforderungen. Zunächst wird der Medienbegriff näher untersucht, um ein für den Kommunikationskontext sinnvolles Medienverständnis zu formulieren. Medien werden hier als Hilfsinstanz im Kommunikationsprozess verstanden, die es erlaubt, Informationen auch über räumliche und/oder zeitliche Distanzen hinweg zu verbreiten. Eben diese Errungenschaften der Medien bergen gleichzeitig eine Reihe von Risiken, die nicht zuletzt auch den Erfolg von Kommunikation betreffen, der im internen Unternehmensbezug vor allem darin zu sehen ist, dass beim Empfänger von Informationen eine intendierte Reaktion erfolgt. Diese kann sich in einem bestimmten Verhalten, aber auch veränderten Ansichten und Einstellungen des Rezipienten niederschlagen. Da der Medieneinsatz im Rahmen der IK zunehmend an Bedeutung gewinnt, muss diesem Aspekt besondere Aufmerksamkeit zukommen. Wie unter Rückgriff auf verschiedene Kommunikationsmodelle deutlich gemacht wird, kommt es durch die medienbedingte strukturelle Veränderung der Kommunikation zu einer Reihe von Effekten, die meist mit Restriktionen verbunden sind. Sowohl Informations- als auch Kanalvielfalt werden häufig eingeschränkt und führen zu einer veränderten Kommunikationssituation. Für die Akteure bedeutet dies, dass sie mit einem reduzierten Kommunikationsdesign konfrontiert sind, da besonders nonverbale Informationen nicht selten herausgefiltert werden und/oder die Möglichkeit zur direkten Interaktion eingeschränkt wird. Gerade diese für persönliche Kontakte typischen Merkmale sind jedoch von großer Bedeutung für den Kommunikationserfolg. Das Ziel dieser Arbeit ist folglich, zielführende Mittel und Wege auszuloten, die eben beschriebene Defizite medialer Kontakte ausgleichen können und ihre Potentiale voll nutzbar machen. Eine wichtige Rolle spielen in diesem Zusammenhang die verschiedenen Koordinationsweisen von Unternehmen, die weitgehend auch für Kommunikationsprozesse Gültigkeit besitzen. Durch eine Untersuchung und Gegenüberstellung der einzelnen Koordinationsmechanismen wird deutlich, dass besonders solche bei der Abstimmung zwischenmenschlicher Informationsprozesse viel versprechend sind, die auf Beziehungen gestützt sind, also auf freiwilliger Basis ent- und fortbestehen. Kultur und Vertrauen als Repräsentanten dieser Kategorie werden besonders in jüngerer Zeit immer häufiger von der Organisationswissenschaft aufgegriffen. Sie haben im Vergleich zur zweiten identifizierten Gruppe der autoritätsbasierten Koordinationsweisen (z.B. Anweisungen, Regeln) den Vorteil, einen hohen Grad an Allgemeingültigkeit aufzuweisen, auch wenn dazu eine gewisse Vorlaufzeit zur Sammlung gemeinsamer Erfahrungen nötig ist. Eine ausgeprägte Allgemeingültigkeit ist in der Kommunikation deshalb unentbehrlich, weil eine Vielfalt situationsabhängiger Kontextvariablen das Geschehen bestimmt, von der im konkreten Fall nicht alle einzelnen berücksichtigt werden können, ohne hohen Zeit- und Kostenaufwand zu verursachen. So stellt sich heraus, dass nur der kombinierte Einsatz verschiedener Koordinationsformen wirksam sein kann, wobei Kultur und Vertrauen als beziehungsgeleitete Varianten besondere Betonung finden sollten. Kernpunkt der Dissertation ist deshalb eine Analyse einzelner Komponenten dieser Mechanismen, die unerlässlich ist, um ihre Wirkung im Rahmen der Kommunikationsprozessierung detailliert untersuchen zu können. Hier wird deutlich, dass medienbedingte Informationsdefizite und eingeschränkte Rückkopplungsmöglichkeiten erfolgreich durch eine günstige Ausprägung der verschiedenen Kulturbereiche sowie ein hohes Maß an Vertrauen auf verschiedenen Ebenen ausgeglichen werden können. Auf dem Weg zu einem umfassenden Optimierungskonzept der unternehmensinternen (Medien-)Kommunikation wird als abschließender Schritt ausführlich erläutert, wie sich auf Vertrauen und Kultur als Wegbereiter einer effektiven und effizienten zwischenmenschlichen Kommunikation einwirken lässt. Die diesbezüglich herausgearbeiteten Einflussfaktoren lassen sich zunächst grob in zwei Gruppen unterteilen, von denen die eine als personenbezogene und die andere als zwischenmenschliche Erfolgsdeterminante bezeichnet wird. Es geht hier einerseits um die kommunikationsrelevanten Kompetenzen einzelner Mitarbeiter, die sich auf deren Umgang mit Informationen, Medien sowie anderen Personen beziehen und maßgeblichen Einfluss auf die unternehmensinterne Lage von Vertrauen und Kultur in seinen unterschiedlichen Dimensionen üben. Andererseits sind es die im Rahmen der verschiedenen unternehmensinternen Informationsflussrichtungen erkennbaren Kommunikationsbereiche, die ihrerseits einen wichtigen Beitrag zur gezielten Förderung eines ertragreichen Miteinanders leisten. An dieser Stelle kristallisieren sich vielseitige Wirkungszusammenhänge heraus, die in der Arbeit ausführlich dargelegt werden. Zusammenfassend ist festzuhalten, dass Kommunikation im aufgegriffenen Themenkontext gleichzeitig als wichtiger Erfolgsfaktor und anvisierte Zielgröße in Erscheinung tritt, woran deutlich wird, dass Informationsprozesse in gewisser Weise sowohl das Mittel als auch den Zweck der herausgearbeiteten Optimierungsstrategie darstellen. Festzuhalten ist, dass Kommunikationsprozesse unter besonderer Berücksichtigung des verstärkten medialen Einflusses nur auf der Basis gesunder Beziehungen im Unternehmen gleichzeitig rational als auch effektiv sein können. Interne Beziehungen hängen ihrerseits von den Kompetenzen einzelner Mitarbeiter und dem reibungslosen Informationsfluss sowohl in vertikaler als auch horizontaler Richtung ab. Der Fokus bei der Organisation der IK muss folglich auf der Ausgestaltung günstiger Rahmenbedingungen bzw. Voraussetzungen als Grundlage für erfolgreiche Informationsprozesse liegen, während konkrete Einzelfallregelungen und Anweisungen auf diesem Gebiet eine eher untergeordnete Rolle spielen, da diese Mechanismen die hier auftretenden Problemstellungen nur unzureichend aufgreifen.
Das Auffinden von Bildern im Internet ist immer noch an die Sprache als Verweis- und Indizierungsvehikel gebunden. Der Struktur und dem bildimmanenten Aufbau eines Bildes wird dabei keine Bedeutung beigemessen, die treffsichere Beschreibung und Betitelung des Bildes durch den Publizierenden entscheidet über seine Auffindbarkeit im WWW. Dieser Text setzt sich mit derzeitigen Verweisstrukturen des WWW und ihrer Anwendbarkeit auf Bilder auseinander, zeigt Schwächen auf und stellt mit PeTAL ein im Aufbau befindliches System vor, das Abhilfe schaffen könnte.
Beschrieben wird eine bedeutende Karte des hohen Mittelalters, ihre Herkunft, ihr Gehalt, ihre Struktur, einige Aspekte des von ihr verkörperten Weltbildes sowie ihre Dokumentation mit digitalen Medien.
Im Jahr 1991 fand in Lueneburg im dortigen Museum ein Ausstellungsprojekt statt, geplant und realisiert von Lehrenden und Studierenden unserer Universitaet. Anna Oppermann war eine der eingeladenen Kuenstlerinnen und steuerte ihr "Friduttchen"-Ensemble bei. Aus diesem Treffen entstand die Idee, den Versuch zu wagen, ihre hoch komplexe, fragile, vergaengliche Arbeit mit den informatischen und kunstwissenschaftlichen Methoden zu dokumentieren, die wir Gelegenheit hatten, ihr vorzustellen. Im folgenden Jahr entstanden dann in enger Absprache mit der Kuenstlerin erste Versionen eines digitalen Archivs ihres Ensembles "Umarmungen, Unerklaerliches und eine Gedichtzeile von R.M.R." Der Beitrag berichtet ueber das Projekt und die Dokumentation der Arbeit Anna Oppermanns mit dem XML-Standard PeTAL.
Cut,-Copy-and-Paste-Verfahren gelten in Kreisen der Hochkultur immer noch als verschrien und trennen "echte" Kunst eindeutig von Nicht-Kunst. Das Werk Glenn Goulds zeigt beispielhaft, dass solche Festschreibungen nicht immer gelten. Nach dem Ende des auratischen Kunstwerks entsteht keine in und durch die Medien neu vergesellschaftete Kunst, sondern ein neuer Mythos. Nach dem Mythos der High Fidelity folgt der Mythos der Produktionstechniken und ihrer Magier, ein Mythos, an dem Gould - neben seinen Kollegen aus der "populaeren Musik", den Beatles, den Beach Boys und ihren Studioingenieuren - als einer der Ersten kraeftig mitstrickt.
Wir haben es bei unserem Thema also mit einem Phantasma zu tun, dem der Beseelung, der Unterstellung von Odem, von Atem, bei toter Materie, bei den Maschinen. Und auch der Eindruck, die Maschinen machten sich nach und nach selbständig, und sie hätten so etwas wie Autonomie, ist natürlich nicht von der Hand zu weisen. Niemand könnte mehr behaupten, etwa das Internet noch zu beherrschen, wie man ein Werkzeug beherrscht. Unbeherrschbarkeit ist ja geradezu ein notwendiges Charakteristikum selbstorganisierender Systeme. Aber ist es denn so, dass wir unsere Computersysteme nicht mehr direkt programmieren können, bleibt uns, wie bei Kontrollversuchen an autopoietischen Systemen nur die Handlungsoption, Bedingungen für Möglichkeiten zu schaffen, und sind wir dann zum Zusehen und Abwarten verurteilt, ob manches dann auch so kommt, wie wir es intendieren?
Es ist zu fragen, ob das Neue am Cyberspace tatsächlich eine gänzlich andere Topographie – jenseits der Grenzen des uns bekannten Raumes – oder eine ganz neue Ökonomie sei, die den Gesetzen des Kapitalismus nicht mehr gehorcht, ob im Cyberspace gar Raum, Zeit und Geld verschwänden, welche die neuen Verhältnisse sind, in denen wir ein Leben führen, das zweifellos tatsächlich ein anderes ist als vor Erfindung der weltumspannend vernetzten Digitalcomputer.
Im Bereich der körperlichen Belastungsmessung lässt sich die Zusammenführung von einzelnen Eindrücken zu einem Gesamturteil überall beobachten. Trotzdem sind die ablaufenden Prozesse größtenteils ungeklärt und gerade die Gewichtung der Eindrücke ist kaum nachvollziehbar. In dieser Studie wurden 60 Probanden mithilfe eines Fahrradergometers 7,5 Minuten belastet. Jeder Proband absolvierte 3 Stufen über jeweils 2,5 Minuten mit 50, 75 und 100 Watt in unterschiedlicher Reihenfolge. Alle sechs möglichen Reihenfolgen wurden getestet. Zu jeder der Stufen wurde ein Beanspruchungsurteil erhoben. Zusätzlich wurde nach einem Gesamturteil gefragt. In den Einzelmessungen zeigen sich weder ein Positions- noch ein Carry-Over-Effekt. Trotzdem setzt die erste Beurteilung einen Anker, der sich durch die Beurteilung zieht. Die Gesamturteile der Gruppen unterscheiden sich nicht signifikant voneinander. Dafür lassen sich in der Gewichtung Tendenzen erkennen. Die höchste Stufe von 100 Watt sowie die letzte Stufe scheinen besonderes Gewicht zu bekommen, wobei der Effekt der 100 Watt-Beurteilung den Recency-Effekt überdeckt.
Die Abhandlung gibt einen ersten Überblick über Entstehung, theoretische Hintergründe und Auswirkungen der finanziellen Bürgerbeteiligung im Rahmen der New Public Governance (NPG) in den deutschen Kommunen. Grundsätzlich kann festgestellt werden, dass die Kommunen in Zukunft vor großen sozialen, ökonomischen und ökologischen Herausforderungen stehen, die für ihre nachhaltige Entwicklung von entscheidender Bedeutung sind. Insbesondere der enge finanzielle Handlungsspielraum vieler Städte und Gemeinden in Kombination mit den Auswirkungen der demographischen Entwicklung und Urbanisierungsprozessen in einzelnen Regionen in Deutschland, bedingt neue Konzepte und innovative Herangehensweisen für die öffentliche Aufgabenerfüllung. Ein Bestandteil dieser neuen Form der Aufgabenerfüllung stellen finanzielle Bürgerbeteiligungsmodelle dar. Diese Modelle vereinen öffentliche, For-Profit- und Non-Profit-Elemente in ihren Strukturen und werden in dem Beitrag näher erläutert. Abschließend wird auf das besondere Verhältnis der Sparkassen und Kreditgenossenschaften in Verbindung mit den finanziellen Bürgerbeteiligungen eingegangen.
Die Verringerung des Material- und Ressourcenverbrauchs ist eine wesentliche Herausforderung nachhaltiger Entwicklung. Bislang standen und stehen politische Maßnahmen zur Energieeffizienz im Vordergrund. Maßnahmen zur Verbesserung der Materialeffizienz gewinnen jedoch verstärkt an Bedeutung. Der Erfolg oder Misserfolg politischer Instrumente im Umwelt- und Klimaschutzbereich wird maßgeblich davon abhängen, ob die Instrumente die Fähigkeit besitzen, eine Entkoppelung von Lebensqualität und Ressourcenverbrauch zu erzeugen. Insbesondere im Rahmen der Ökodesign-Richtlinie, aber auch anderer Instrumente der Europäischen Union, sind Ansatzpunkte zur politischen Gestaltung einer ressourcenleichten Langfristökonomie angelegt. Die Dissertation wird schwerpunktmäßig die Governance-Instrumente im Produktbereich der Europäischen Union behandeln. Die Dissertation folgt der Theorie, dass die Produkte der Industriegesellschaft einzeln mehr oder weniger harmlos, in ihrer Menge jedoch die Quelle fast aller Umweltprobleme sind. Zur Erstellung der Dissertation sieht das spezifische Methodendesign die Anwendung eines Kriterienkatalogs zur Bewertung der Steuerungsinstrumente für Langfristökonomie im Produktbereich vor. Darüber hinaus werden die Hauptakteure in Form von Interviews befragt.
Fragestellung und Kontext: Inwieweit lässt Strafe im Rahmen einer pädagogischen Intervention in der öffentlichen Erziehung heute erziehungswissenschaftlich und rechtlich Legitimieren? Im Verlauf der 70er und 90er-Jahre verschwand der Begriff ´Strafe´ weitgehend aus der erziehungswissenschaftlichen Diskussion. Rückblickend lässt sich nachvollziehen, dass u.a. Impulse aus der ´Stigmatisierungsdebatte´ wie auch die Erkenntnisse, die unter dem Stichwort ´Schwarze Pädagogik´ Eingang in die Debatte fanden. Parallel etablierten sich engagierte Initiativen, antiautoritär mit Kindern umzugehen, gar, ´antipädagogisch´ ganz auf Erziehung zu verzichten. Formeln wie ´Therapie statt Strafe´ initiierten bis in das Strafrecht hinein den Willen, Begriff und Praxis des Strafens zu überwinden. Der bisherigen Debatte, im historischen Zusammenhang sind zwei Aspekte bemerkenswert: Erstens: Das, was objektiv als Strafe gewollt war oder subjektiv so empfunden wurde, hat nicht aufgehört zu existieren. Das heißt: Auch wenn der Begriff Strafe (Sanktion, Konsequenz, sachlogische Folge) tabuisiert und aus dem Fachvokabular gestrichen wurde, wird im Erziehungsalltag weiterhin gestraft, wie die Studie von Günder, Reidegeld, Müller-Schlotmann (2009), treffend nachweisen. Zweitens: Es hat bisher keine systematische Auseinandersetzung in den Erziehungswissenschaften mit dem Phänomen ´Strafe´ gegeben. Erst im Jahr 2013 (ZJJ Heft 3/2013 und 01/2014) gab es einen Versuch aus aktueller Perspektive ´Erziehung´ und ´Strafen´ mehrperspektivisch zu diskutieren. In diese Lücke (Theorie und Handlungslogik) stößt die vorliegende Untersuchung. Auf der Grundlage eines historischen Überblicks wird ein Ansatz entwickelt, mit der Intention und der Fragestellung, wie das Strafproblem in der Erziehung, zumal der öffentlichen, fachlich beantwortet (gelöst) werden könnte. In der interdisziplinär angelegten Untersuchung, ausgehend von der Beobachtung, das Strafe ein fester Bestandteil der Erziehung sei. Dieser Logik selbstverständlichen, ja fraglosen Verhaltens wird in der vorliegenden Erörterung nachgegangen. Zu klären ist die Bedeutung sowie der Einfluss der ´Alltagstheorien´ auf mögliche punitive Tendenzen im Erziehungsalltag, welche durch die oben erwähnte Studie aus dem 2009 zweifelsfrei begründet werden. Diesen Ergebnissen soll mit Hilfe wissenschaftlicher Theorien entgegengetreten werden. Aus dem dafür in Betracht kommenden Bezugswissen nimmt die Erziehungswissenschaft und Psychologie einen zentralen Stellenwert ein. Des Weiteren wird die Bedeutung des Rechts: Grundgesetz, Familienrecht sowie das SGB VIII betont. Zu klären ist, welche Sanktionen noch vom gegenwärtigen Recht und dem Stand der Fachdiskussion in der Pädagogik gedeckt seien. Das aus dem gesellschaftspolitischem Erziehungsauftrag und den Hilfen zur Erziehung (§ 27 SGB VIII) ablesbar normative Erziehungsverständnis, sei durch einen hohen Anspruch an Funktionalität, Disziplin und soziale Anpassung geprägt. Die Handhabung des ´Strafproblems in der Pädagogik´ sei, trotz der Reformen in den 1980er und 1990er Jahren nach wie vor wesentlich von Alltagstheorien geprägt (Luedtke 2009). Design: Die vorliegende Erörterung ist eine interdisziplinär angelegte, literaturgestützte Untersuchung, die sich ausschließlich auf vorhandenes Wissen/Theorien bezieht.
Durch die fortschreitende Intensivierung der landwirtschaftlich genutzten Flächen in Deutschland wird im Rahmen der Ertragsteigerung oftmals ein erhöhter Einsatz von Düngemitteln und Pestiziden beobachtet. Da bislang nur wenige Abstandsauflagen zu Saumbiotopen bei der Zulassung von Substanzen festlegt wurden und darüber hinaus durch Abdrift, vor allem in Hauptwindrichtung von Agrarflächen, eine ungewollte Applikation ausgebrachter Fungizide auf Waldsäume (hier: Nichtzielfläche) anzunehmen ist, kann eine Gefährdung von Nichtzielorganismen nicht ausgeschlossen werden. Durch einen zulässigen Einsatz von Fungiziden im Forst und in Baumschulen werden Bestände auch unmittelbar mit Pestiziden exponiert. Im Rahmen dieser Arbeit wurde die Symbiose zwischen Bäumen als Nichtzielpflanzen und Ektomykorrhiza-Pilzen (ECM) als Nichtzielorganismen unter Fungizid- und Herbizid-Exposition untersucht. Als Modellsubstanzen wurden sowohl Pestizide mit einer Zulassung für Forstwirtschaft und Baumschulen wie auch mit Ackerbauzulassung gewählt. Die Anwendungsbereiche werden durch Konzentrationsniveaus (100% bzw. 10% der empfohlen Aufwandmenge, AM) abgebildet. Buchen, welche eine intakte Symbiose mit Ektomykorrhiza aufweisen, sind besser an ihre Umwelt angepasst und verfügen über Standortvorteile aufgrund einer effektiveren Nährstoff- und Wasseraufnahme. Diese Symbiose reagiert sensibel auf anthropogene Störungen wie Pestizidanwendungen. Die Substanzen können dabei sowohl über eine direkte Wirkung auf die Mykorrhiza-Pilze, wie auch über eine indirekt schädigende Wirkung auf die Wirtspflanze, die Symbiose beeinflussen. Ziel der Arbeit war es zu untersuchen, ob und welche Auswirkungen auf den Endpunkt Myzelwachstum von Ektomykorrhiza Pilzen durch eine Exposition zu beobachten sind. Zur Gefährdungsabschätzung wurden gemessene Pestizidkonzentrationen (MEC) in Gewächshausversuchen bestimmt; ECx Werte aus Konzentrations-Wirkungskurven ermittelt und die daraus resultierenden ökotoxikologischen Kenngrößen QR (Quotient Ratio) und TER (Toxic Exposure Ratio) berechnet. Dazu wurden zunächst in vitro Hemmversuche unter definierten Laborbedingungen durchgeführt. Als Endpunkt wurde das Myzelwachstum von Ektomykorrhiza-Pilzen definiert und entsprechende Kenngrößen wie EC10, EC50 und EC90 Werte für verschiedene Pestizid- ECM Modelle ermittelt. Als Modellorganismen wurden Pisolithus arhizus, Hebeloma crustuliniforme, Lyophyllum sp. und Cenococcum geophilum eingesetzt. Als Pestizide wurden die Wirkstoffe Quinoxyfen, Boscalid, Tebuconazol, Azoxystrobin sowie die Formulierungen Orius, Collis und Basta untersucht. Ergänzend dazu wurden Expositionsversuche im Gewächshaus durchgeführt und die Konzentrationen und Verteilungen der Wirkstoffe Tebuconazol und Boscalid in den Kompartimenten Boden1, Wurzelnaher Boden2 und Wurzel bestimmt. Hierzu wurde eine Methode zur Aufbereitung, Extraktion und Analyse mittels LC- MSMS in den verschiedenen Kompartimenten entwickelt. Ebenfalls wurde eine Methode zur Messung der Substanz Tebuconazol im Myzel von Pisolithus arhizus entwickelt. Aufgrund der Ergebnisse konnte gezeigt werden, dass die Toleranz der Mykobionten auf eine Exposition von dem untersuchten Testorganismus und dem eingesetzten Wirkstoff sowie dessen Konzentration abhängt. Hierbei wurde für den sensibelsten Testorganismus im Versuch, Pisolithus arhizus, ein EC50 Wert kleiner 0,026 ng g-1 für eine Exposition mit Orius ermittelt. Für eine Exposition von Pisolithus arhizus mit dem Herbizid Basta wurde ein EC50 Wert von 0,4% AM entsprechend 6 g ha -1 Glufosinat berechnet. in dem für die Symbiose relevanten Kompartiment Wurzelnaher Boden Wirkstoffkonzentrationen im Bereich von 100 - 500 ng g-1 für Boscalid und 150 - 700 ng g-1 für Tebuconazol bestimmbar sind. in dem Kompartiment Wurzel sowohl der Wirkstoff Tebuconazol wie auch Boscalid nachgewiesen werden konnte. im exponierten Myzel von Pisolithus arhizus der Wirkstoff Tebuconazol nachgewiesen werden konnte. Es wird somit von einer Bioverfügbarkeit der Substanz Tebuconazol ausgegangen. aufgrund der Datenlage und einer Berücksichtigung eines TER-Wertes < 5, für nahezu alle Kombinationen ein erhöhtes ökotoxikologisches Risiko anzunehmen ist. Einzig für eine Exposition mit 10% AM Boscalid auf den Testorganismus Cenococcum geophilum konnte ein TER > 9 ermittelt werden. Somit erscheinen weitere Untersuchungen bezüglich der Auswirkung von Pestiziden auf die Nichtzielorganismengruppe Ektomykorrhiza sinnvoll und notwendig. Für die Bewertung muss ein geeignetes Testsystem für Bodenmikroorganismen wie Mykorrhiza-Pilze standardisiert und validiert werden. Die entwickelte und angewendete Plattenmethode als Standardmesssystem erscheint dafür geeignet. Im Rahmen der Pestizidzulassungen müssen in Zukunft möglicherweise Mykorrhiza-Symbiosen bedacht werden und Schutzmaßnahmen wie Anwendungsbeschränkungen oder Abstandsregelungen zu Saumbiotopen überdacht werden.
In der vorliegenden kumulativen Dissertation geht es um das Selbstkonzept von Schülerinnen und Schülern im Kontext schulischer Inklusionsprozesse und aktueller gesellschaftlicher Entwicklungen. Für empirische Studien aus dem Bereich der Selbstkonzept- und Inklusionsforschung stellt die valide und zielgruppengerechte Messung des Selbstkonzepts eine wichtige Voraussetzung dar. In der ersten und dritten Studie wird daher die Entwicklung und Validierung eines deutschsprachigen Messinstruments zur Erfassung des Selbstkonzepts bei Jugendlichen der Sekundarstufe I (Studie I) und bei Grundschülern (Studie III) beschrieben. Es wurden Testanalysen auf der Datenbasis einer Stichprobe von N = 1 907 Schülerinnen und Schülern verschiedener Schulformen (n = 294 Förderschülerinnen und Schüler) und N = 416 Kindern der 4ten Klassenstufe durchgeführt. Konfirmatorische Faktorenanalysen bestätigten die postulierte achtfaktorielle Struktur. Die Messinvarianz über Geschlecht und Schulform konnte belegt werden. Zusammenhänge mit Außenkriterien wiesen auf eine zufriedenstellende Validität der Selbstkonzeptskalen hin. Die Reliabilitätsschätzungen fielen allgemein gut aus. In der zweiten Studie wurde empirisch überprüft, inwieweit sich multiple Selbstkonzeptfacetten von Schülerinnen und Schülern mit und ohne sonderpädagogischen Förderbedarf im Schwerpunkt Lernen (SPF-L) in Abhängigkeit von der Beschulungsart unterscheiden. Zusätzlich wurden das allgemeine und das schulische Wohlbefinden von Schülerinnen und Schülern mithilfe quantitativer und qualitativer Befragungen, im Sinne eines Mixed-Method-Ansatzes, erfasst. Inklusiv beschulte Schülerinnen und Schüler mit SPF-L wiesen ein deutlich schlechteres akademisches Selbstkonzept auf als die Jugendlichen an Förderschulen und die Schülerinnen und Schüler ohne SPF. Für das generelle Selbstwertgefühl, Aussehen und die sozialen Selbstkonzeptfacetten Eltern- und Mitschülerbeziehung zeigten sich keine Unterschiede. Jugendliche mit SPF-L hatten unabhängig von der Beschulungsform ein besseres Selbstkonzept der Lehrerbeziehung. In der vierten Studie wurde anhand einer Stichprobe von N = 2 950 Schülerinnen und Schülern verschiedener Schulformen untersucht, welche Facetten des Selbstkonzepts die wichtigsten Prädiktoren für ein positives generelles Selbstwertgefühl bei Jugendlichen darstellen und ob es Unterschiede hinsichtlich des Geschlechts und der Schulform gibt. Die Ergebnisse zeigten, dass das Selbstkonzept des Aussehens den wichtigsten Prädiktor für ein positives Selbstwertgefühl darstellt; insbesondere für Mädchen. Andere Selbstkonzeptfacetten spielen eine deutlich geringere Rolle.
Die Fragestellung dieses Forschungsvorhabens resultiert aus der Praxis: Was ist ein christliches Hotel? Wie konkretisieren sich die christlichen Wertehaltungen im betrieblichen Alltag eines Hotels in Deutschland? Gibt es in der betrieblichen Praxis Unterschiede zwischen christlichen und nicht christlichen Hotels aus Sicht der Mitarbeiter christlicher Hotels, und wenn ja, welche sind das? Können christliche Hotels ihre Werte im Personalmarketing als Anreize verwenden? Welche Anreize erwarten die Mitarbeiter christlicher Hotels grundsätzlich von ihren Arbeitgebern? Gibt es Unterschiede in den Bewertungen der Wichtigkeit der christlichen Ausrichtung christlicher Hotels je nach Glaubenszugehörigkeit (christlich, andere, ohne) der Mitarbeiter? Da die Anwendung bzw. Konkretion christlicher Werte im betrieblichen Kontext nicht vom kulturellen außerbetrieblichen Umfeld getrennt betrachtet werden kann, beziehen sich die vorliegenden Ausführungen allein auf christliche Hotels in Deutschland. Das Objekt „Christliches Hotel“ wurde bislang in der Forschungsliteratur noch nicht näher beschrieben. Um den Forschungsgegenstand "Christliches Hotel" zunächst näher zu beschreiben, wird das in der Qualitätsdiskussion bekannte EFQM Excellence Modell herangezogen und anhand des Werteinventars unternehmensrelevanter christlicher Werte auf die Hotellerie übertragen. Dieses entwickelte EFQM Excellence Modell - auch EFQM Excellence Modell Hotel "C" genannt - dient einer ersten Konkretion des Forschungsgegenstandes und bildet zum anderen die Basis für die empirische Studie. Hierfür wurden 276 Mitarbeiter christlicher Hotels befragt, wie sie die im Rahmen des EFQM Excellence Modell Hotel "C" konkretisierten Werte im Management ihres Arbeitgeberhotels wahrnehmen und im Vergleich zu nicht christlichen Hotels und zudem bezüglich der Wichtigkeit bewerten. Die Studienergebnisse zeigen, dass die befragten Mitarbeiter christliche Hotels in den EFQM Konstrukten Führung, Strategie, Mitarbeiter und Prozesse, Produkte und Dienstleistungen sowie in den kulturbezogenen Konstrukten Christliche Werte und Ergänzende christliche Werte im Vergleich zu nicht christlichen Hotels als signifikant besser bewerten. Christliche Werte, sofern sie nicht explizit als solche bezeichnet werden, sind den Mitarbeitern christlicher Hotels in Deutschland unabhängig von ihrer Glaubenszugehörigkeit gleich wichtig. Christlich gläubigen Mitarbeitern christlicher Hotels in Deutschland ist - explizit gefragt - die christliche Ausrichtung ihres Arbeitgebers signifikant wichtiger als Mitarbeitern ohne Glaubenszugehörigkeit. Christliche Werte spielen für die Mitarbeiter christlicher Hotels in Deutschland zusammenfassend eine wichtige Rolle. Diese immateriellen Werte sind starke Beitrags- und Bleibeanreize, die christliche Hotels im Personalmarketing verwenden können. Dies gilt umso mehr, wenn die christlichen Werte von den christlichen Hotels in Deutschland nicht nur explizit als solche zusammenfassend genannt, sondern konkret und vor allem realitätsgetreu dargestellt werden.
Körperliche Aktivität birgt hohe gesundheitliche Gewinne, wenn sie regelmäßig und dauerhaft praktiziert wird. Bestimmend für Verhaltensqualität und -prognose sind befriedigte implizite Motive. Stimmen sie mit den expliziten Zielen der Person überein, entsteht Wohlbefinden und Motivation. Welche psychogenen Motivprofile bei Personen im Präventionssport dominieren, ist unbekannt und wurde hier qualitativ untersucht. Mittels semiprojektiven Foto-Elicitation Interviews, speziell der Zaltman Metaphor Elicitation Technique, wurden acht Probanden qualitativ zu expliziten Zielen und impliziten Motiven ihrer körperlicher Aktivität im Präventionssetting befragt. Ihr Involvementniveau zu aktivem Gesundheitshandeln wurde zuvor standardisiert erhoben. Ausgewertet wurde durch induktive Inhaltsanalyse nach Mayring sowie bildmetaphorisch nach Lakoff und Johnson, ein motivationales Netzwerk kartiert und die Ergebnisse kommunikativ validiert. Die Analyse ergab fünf explizite Handlungsgründe für gesundheitsförderliche körperliche Aktivität, die teils bekannte Ziele des Freizeitsports bestätigen, teils neue Aspekte aufdecken. Insbesondere das explizite Ziel Regeneration und seine Affektqualität scheinen die Motivation zu verstärken. Die erhobenen hohen Ausprägungen des impliziten Leistungs- und Autonomiemotivs waren mit positiven Affekten und Wohlbefinden assoziiert. Anschluss- und Machtmotive blieben unauffällig. Wesentliche Genderunterschiede zeigten sich bei keinem der Partialergebnisse.
In der Wasser- und Abwasseruntersuchung hat der Summenparameter eine heraus-ragende Bedeutung. Sowohl in der gesetzlichen Überwachung als auch der Bemes-sung von Abwasserbehandlungsanlagen werden Belastungen vielfach über die Zu-sammenfassung von Einzelstoffen in Stoffgruppen ausgedrückt. Stoffgruppen lassen sich mit Hilfe von Summenparametern zuverlässig und im Vergleich zu Einzelstoffen mit geringerem Aufwand bestimmen. Im Rahmen dieser Arbeit werden die Verfahrens-grundlagen der Summenparameter und ihre Verwendung in der Wasser- und Abwas-seruntersuchung erläutert. Ein bedeutender wie auch umstrittener Summenparameter ist der AOX - Adsorbier-bare organisch gebundene Halogene (AOX). Bedeutend ist er deshalb, weil er ein ord-nungs- und abgaberechtlich relevanter Abwasserparameter ist. Umstritten ist er unter anderem, weil er ursprünglich für andere Zwecke als die Abwasseruntersuchung ent-wickelt wurde. Seinerzeit war der AOX ein Überwachungsparameter für Trinkwasser. Als Abwasserparameter dient er zur Erfassung einer im Abwasser unerwünschten Stoffgruppe, der besorgnisauslösende Eigenschaften wie Persistenz, Bioakkumulier-barkeit und Toxizität (PBT-Eigenschaften) zugeschrieben wird. Im zweiten Teil der Ar-beit wurden exemplarisch am Parameter AOX die Zusammenhänge zwischen Stoff-parametern und besorgnisauslösenden Eigenschaften bzw. Wirkungen der ausge-wählten parameterausmachenden Substanzen untersucht. Die Untersuchungsergeb-nisse wurden vor allem in Zusammenhang mit der Ermittlung und Verankerung von Mindestanforderungen für das Einleiten von Abwasser bewertet.
In der Dissertation werden Bildwissenschaft und Didaktik miteinander zu verknüpft. So eine Kunstvermittlung mit einer Ausrichtung an Bilderfragen und Bildgebrauch entworfen, wobei eine Orientierung an vorhandenen Didaktiken erfolgt. Außerdem wird Methodik und ein Modell zur der Bildinterpretation entwickelt, die Handlungs- und Subjektorientierung einbeziehen. In dem ersten Teil der Arbeit steht vor allem die bildwissenschaftliche Grundlage im Vordergrund. So wird in diesem Teil die Veränderung des Bildbegriffs und Bildverständnisses reflektiert und thematisiert. Ein breiter Bildbegriff (unterschiedliche Formen, Funktionen und Zuschreibungen inbegriffen), der Bereich der Zuschreibung und die Rolle des Betrachters stehen im Fokus. In dieser Auseinandersetzung mit der Thematik ergibt sich vor allem der Bildgebrauch als ein neuer Weg der Bilderfassung. Außerdem ist die Rolle des Betrachters von Bildern nicht mehr nur eine rezipierende, sondern auch die des Umgangs und des Gebrauchs von Bildern Zusätzlich erfolgt die Verknüpfung der gewonnen Erkenntnisse im Bereich der Kunstpädagogik. Hierzu werden allgemeine und Kunstdidaktiken untersucht und speziell auf die Bereiche Bildverstehen und Handlungsorientierung bezogen. Aus aktuellen Tendenzen der Kunstpädagogik werden die Fokussierung der Wahrnehmung sowie eine Einbeziehung technologischer und nicht-technologischer Wahrnehmungsräume abgeleitet. Theorien zu Potentialen von Bildern ergänzen dies und führen Bildwissenschaft und Didaktik zusammen. Durch Subjektorientierung wird letztlich eine Zuspitzung auf die Notwendigkeit einer Handlungsorientierung und des Bildgebrauchs vorgenommen. Im Modell zur Bildvermittlung werden die fachlichen und didaktischen Erkenntnisse eingebracht. Perzeptbildung, Kontexte (mit Berücksichtigung von Konzept und Allocation) sowie der übergreifende Schritt der Bildhandlungen werden generiert. Abgestimmt auf den Betrachter und das Bild werden die Schritte mit Methoden angereichert. In einem exemplarischen Schulversuch wird dieses Modell umgesetzt und reflektiert.
Biozide Wirkstoffe sind Chemikalien, die zum Schutz der menschlichen oder tierischen Gesundheit oder zum Schutz von Materialien vor Schädlingen eingesetzt werden. Monitoringergebnisse lassen vermuten, dass diese Wirkstoffe auch häufig im Innenraum von Haushalten eingesetzt werden und von dort vor allem über Abwasserleitungen und Kläranlagen in die Umwelt gelangen, wenn sie in Kläranlagen nicht eliminiert werden. Die Produkte, aus denen die Wirkstoffe aus Haushalten in das Abwasser gelangen, sind bislang jedoch nicht identifiziert worden. Aus diesem Grund konnten die daraus resultierenden Umweltbelastungen nicht eingeschätzt und keine entsprechenden Emissionsminderungsmaßnahmen umgesetzt werden. In dieser Arbeit wurde deshalb untersucht, in welchen Haushaltsprodukten biozide Wirkstoffe eingesetzt werden und in das Abwasser gelangen. Zudem sollte erforscht werden, was die Haushaltsmitglieder über Biozidprodukte wissen und wie sie mit ihnen umgehen. Ziel war es, die Anwendungen von bioziden Wirkstoffen in Haushalten zu identifizieren, von denen die höchsten Umweltbelastungen zu erwarten sind, und geeignete Emissionsminderungsmaßnahmen abzuleiten. Um die Anwendung biozider Wirkstoffe in Haushalten zu untersuchen, wurde zunächst durch eine Befragung in Haushalten eines dörflichen Wohngebietes ermittelt, was die Haushaltsmitglieder über Biozidprodukte wissen und wie sie die damit verbundenen Risiken im Vergleich zu anderen Haushaltsprodukten einschätzen. Zudem wurde für jeden der teilnehmenden Haushalte ein Inventar der vorhandenen Produkte erstellt. Dabei wurden neben den Biozidprodukten auch Wasch- und Reinigungsmittel und Körperpflegeprodukte untersucht. Ähnliche Erhebungen fanden zusätzlich in Haushalten in urbanen Gebieten statt. Die aufgrund der inventarisierten Produkte zu erwartenden Stoffe wurden im Laufe eines Jahres durch ein speziell abgestimmtes Monitoringprogramm im Abwasser des dörflichen Wohngebietes in Tages- und Stundenmischproben untersucht. Alle Proben wurden nach der Probenahme aufgearbeitet und mittels Flüssigchromatographie gekoppelt mit einem Triple-Quad-Massenspektrometer analysiert. Dabei wurden die Konzentrationen von 14 Wirkstoffen gemessen: 1,2-Benzisothiazol-3(2H)-on (BIT), C12-Benzalkoniumchlorid, Carbendazim, 5-Chlor-2-methyl-2H-isothiazol-3-on (CMIT), Dichloroctylisothiazolinon (DCOIT), N,NDiethyl-meta-toluamid (DEET), Diuron, Icaridin, 2-Octyl-2H-isothiazol-3-on (OIT), Piperonylbutoxid (PBO), Triclosan, Tebuconazol, Terbutryn und Tetramethrin. Vielen Befragten war nicht bewusst, dass sie Biozidprodukte nutzen. Der Begriff "Biozid" war oft nicht bekannt und wurde inhaltlich häufig falsch verstanden. Die Auswertungen der inventarisierten Produkte und der darin enthaltenen bioziden Wirkstoffe zeigten, dass ein Großteil der Wirkstoffe nicht aus Biozidprodukten in das Abwasser gelangt, sondern aus Körperpflegeprodukten und Wasch- und Reinigungsmitteln. Insgesamt 64 % der Anwendungen von bioziden Wirkstoffen in den inventarisierten Produkten wurden nicht unter der Umweltrisikobewertung der Verordnung (EU) 528/2012 über die Bereitstellung auf dem Markt und die Verwendung von Biozidprodukten berücksichtigt, was zu einer erheblichen Unterschätzung der Umweltrisiken führt. Die Ergebnisse der Abwasseruntersuchungen deuten ebenfalls darauf hin, dass biozide Wirkstoffe aus Wasch- und Reinigungsmitteln, Körperpflegeprodukten und Biozidprodukten gleichermaßen in das Abwasser eingetragen werden. Die Messergebnisse können gut mit den Produktinventaren in Verbindung gebracht werden. Einige Wirkstoffe scheinen maßgeblich durch Biozidprodukte eingetragen zu werden. Auch Konservierungsmittel wurden regelmäßig nachgewiesen. Für Triclosan hingegen ist gemäß den Inventaren Zahnpasta vermutlich die Produktgruppe, die in dem untersuchten Wohngebiet maßgeblich für den Eintrag ins Abwasser verantwortlich ist. Diese Arbeit zeigt zum ersten Mal, welche Produkte im Haushalt eine wichtige Quelle für biozide Wirkstoffe im Abwasser sind. Sie müssen mit einbezogen werden, wenn Emissionen an der Quelle reduziert werden sollen. Es sollten Maßnahmen ergriffen werden, die über die Produktzulassung von Biozidprodukten hinausgehen, um die Emissionen so gering wie möglich zu halten. Diese Maßnahmen sollten sich nicht darauf beschränken, die Bevölkerung über Biozidprodukte aufzuklären und zu sensibilisieren. Stattdessen sollten Maßnahmen früher in der Wertschöpfungskette ansetzen, wie zum Beispiel beim Design der Wirkstoffe oder der Formulierung der Produkte, um so Einträge biozider Wirkstoffe in die Umwelt zu verringern.
Unter Wirkungsbezogener Analytik (WBA) wird die Kopplung eines chromatographischen Trennverfahrens mit einem biologischen Testsystem verstanden. Der Vorteil bei dieser Herangehensweise ist, dass die zuvor getrennten Probeninhaltsstoffe anhand ihrer Aktivität mit einem in vitro-Testsystem detektiert werden. Es hat sich gezeigt, dass die Hochleistungsdünnschichtchromatographie (HPTLC) besonders geeignet für die WBA ist. Bislang konnte nicht gezeigt werden, dass die WBA mit HPTLC auch als routinefähige Methode eingesetzt wurde. In dieser Arbeit erfolgte eine Optimierung der Detektion der Endpunkte Biolumineszenzhemmung (Aliivibrio fischeri), antibiotische Wirkung (Bacillus subtilis), Neurotoxizität (Acetylcholinesterase) von der HPTLC-Platte hinsichtlich Routinefähigkeit. Zusätzlich konnte in ersten Versuchen gezeigt werden, dass es möglich ist, direkt gentoxische Verbindungen mittels des umu-Tests auf der HPTLC-Platte nachzuweisen. Für die einzelnen Biotests sind unterschiedliche Inkubationszeiten notwendig. Dies führt aufgrund von Diffusion auf der HPTLC-Platte zu einer Bandenverbreiterung. Es wurden unterschiedliche Methoden und Arbeitsweisen zur Verminderung der Diffusion erprobt und optimiert. Eine Möglichkeit ist die mechanische Eindämmung durch die Einbringung einer Gaze in eine verfestigte Calciumalginatschicht. Optimiert wurde dieses Verfahren am Bacillus subtilis-Hemmtest. Für Enzymtests ist eine vergleichsweise kurze Inkubationszeit notwendig. Daher tritt hier eine geringere Bandenverbreiterung auf, womit eine mechanische Einschränkung der Diffusion nicht geeignet ist. Um die auftretende Bandenverbreiterung möglichst gering zu halten, wurde besonders die Aufbringung des Substrats optimiert. Dies geschah am Beispiel des HPTLC-Acetylcholinesterasehemmtests. Die Ermittlung der unterschiedlichen bandenverbreiternden Einflussfaktoren erfolgte mittels statistisches Versuchsplanung. Anhand der gewonnenen Erkenntnisse konnte die Methode soweit optimiert werden, dass die bei der Detektion von AChE-Inhibitoren auftretende Bandenverbreiterung sehr gering gehalten werden kann. Aufgrund der hohen Empfindlichkeit des Verfahrens lassen sich selbst geringe Spuren von Verunreinigungen in Referenzsubstanzen detektieren. Besonders für den Routineeinsatz der WBA mit der HPTLC ist die Vergleichbarkeit der Ergebnisse erforderlich. Dazu wurde anhand des HPTLC-Leuchtbakterienhemmtests mit Aliivibrio fischeri eine Auswertestrategie erarbeitet. Die Ermittlung der Biolumineszenzhemmung findet analog zum Küvettentest statt und kann ortsaufgelöst als Hemmwert-Chromatogramm dargestellt werden. Die Darstellung der Hemmung in einem Hemmwert-Chromatogramm gleicht die Stauchung der Peaks aufgrund des sigmoiden Verlaufs der Dosis-Wirkungsbeziehung teilweise aus. Durch die nichtlineare Beziehung zwischen Konzentration bzw. Flächenmasse und Wirkung der unbekannten Substanzen ist es für den Vergleich von Proben notwendig, einen Bezugspunkt zu setzen. Bewährt hat sich dafür der EC50-Wert. Da aber in den meisten Fällen die Konzentration unbekannt ist, wird als Bezugspunkt das Auftragevolumen gewählt, welches erforderlich ist um eine Hemmung von 50% auszulösen. Der Kehrwert des berechneten Auftragevolumens für 50% Hemmung stellt das reziproke Iso-Hemmvolumen (RIHV) dar. Dieser RIHV-Wert hat sich für den Probenvergleich in verschiedenen Anwendungen bewährt. Das Prinzip der Auswertung kann vom HPTLC-Leuchtbakterientest mit Anpassung auf den HPTLC-Bacillus subtilis-Hemmtest übertragen werden. Für den Vergleich der Wirkung auf die Acetylcholinesterase-Hemmung wird in Anlehnung zum RIHV, das reziproke Iso-Aktivitätsvolumen (RIAV) herangezogen. Hier wird das Auftragevolumen, welches notwendig ist, eine Aktivität der AChE von 50% zu erreichen, als Kehrwert angegeben. Zur Ermittlung der Messunsicherheit der Chromatographie und der detektierten Wirkung wurden parallel zu den Proben Referenzverbindungen untersucht. Bei der Überwachung einer gesicherten Deponie über einen Zeitraum von 4,5 Jahren konnte gezeigt werden, dass es sich bei der Hochleistungsdünnschichtchromatographie mittels automatisierter Mehrfachentwicklung (HPTLC/AMD) um ein reproduzierbares Chromatographiesystem handelt. Bei der Anwendung des Leuchtbakterien-, Bacillus subtilis- und des Acetylcholinesterase-Hemmtests auf verschiedene Deponie- und Abwasserproben wurden über einen Zeitraum von sieben Monaten Standardabweichungen von 5-9% Hemmung für die testspezifischen Referenzsubstanzen ermittelt. Als Ergebnis der Validierung wurden der HPTLC-Aliivibrio fischeri-, der HPTLC-Bacillus subtilis- und der HPTLC-Acetylcholinesterase- Hemmtest am 24.03.2015 von der deutschen Akkreditierungsstelle (DAkkS) akkreditiert. Zur Ermittlung potenziell gentoxischer Substanzen wurde der umu-Test ausgewählt. Mit dem umu-Test auf der HPTLC-Platte ist es derzeit möglich, die aus der DIN 38415-3 bekannte direkt wirkende gentoxische Substanz 4-Nitroquinolin-N-oxid (4-NQO) auf der HPTLC-Platte nachzuweisen. Für einen erfolgreichen Nachweis von indirekt wirkenden Substanzen, die erst nach der Aktivierung durch Stoffwechselenzyme gentoxisch wirken, war es nicht möglich, das erforderliche Metabolisierungssystem auf der HPTLC-Platte aufrecht zu erhalten. Zur Durchführung der WBA ist für die meisten Wasserproben (z. B. Oberflächenwasser oder Grundwasser) eine Anreicherung erforderlich. Parallel zu den Arbeiten mit den biologischen Testsystemen erfolgte die Optimierung der Anreicherung von organischen Verbindungen aus Wasserproben. Für die Festphasenextraktion (SPE) wurden verschiedene Materialien bei den pH-Werten 2, 7 und 9 mit Substanzen unterschiedlicher Polarität getestet. Die besten Wiederfindungen über den gesamten Polaritätsbereich erzielte die Phase "Agilent Plexa" (Polydivinylbenzol) mit einer angepassten Elutionsabfolge. Bei der Auswahl des Materials und der Anpassung der Elutionsabfolge wurde auch auf einen möglichst geringen Blindwert für den Biolumineszenz-Hemmtest mit Aliivibrio fischeri geachtet. Damit wurde eine für die WBA geeignete Anreicherungsmethode gefunden. Zur Verbesserung der Extraktionsausbeute von polaren Verbindungen mittels Flüssig-Flüssig-Extraktion (LLE) wurde die Mikro-LLE mit dem in allen Verhältnissen mit Wasser mischbaren Extraktionsmittel Acetonitril getestet. Die im Blindwert auftretenden störenden Substanzen konnten durch Ausheizen des zur Phasentrennung erforderlichen Natriumchlorids erheblich reduziert werden. Bei den Untersuchungen zur Wiederholbarkeit mit einer Deponiesickerwasserprobe und der Detektion der Biolumineszenz von Aliivibrio fischeri waren nur geringe Abweichungen der Hemmwerte detektierbar. Aufgrund der zu erwartenden komplexen Zusammensetzung von Proben aus dem Deponiebereich ist eine Gradientenelution für die HPTLC/AMD notwendig. Anhand von Referenzverbindungen und Extrakten aus verschiedenen Deponien wurde die HPTLC/AMD-Trennung für ein Screening optimiert. Mit diesem Screening-Gradient ist es möglich, die wirkenden Probenbestandteile über die gesamte Trennstrecke zu verteilen. Zusätzlich fand noch eine Entwicklung einer isokratischen HPTLC-Trennung für eine schnelle Beurteilung von Proben statt, wobei bei dieser Methode Abstriche bezüglich der Trennleistung gemacht werden mussten. Zudem konnte gezeigt werden, dass der aufwendige Identifizierungsprozess durch spezifische postchromatographische Derivatisierungsreaktionen auf der HPTLC-Platte unterstützt werden kann. Dazu wurde der Bratton-Marshall-Nachweis von primären Aminen optimiert. Durch den Nachweis von austauschbaren Protonen mittels des H/D-Austausches lassen sich die denkbaren Strukturen deutlich einschränken. Für einen nahezu vollständigen H/D-Austausch hat sich die Kopplung von HPTLC und Massenspektrometer (MS) als besonders geeignet gezeigt, da hier nur wenige Milliliter an deuterierten Lösemitteln benötigt werden. Erprobt wurden die optimierten Methoden an verschiedenen Wässern, welche aus Kläranlagen und aus dem Umfeld von Deponien stammen. Durch die Einführung des RIHV- bzw. RIAV-Wertes ist es möglich Wässer von verschiedenen Probennahmestellen, z. B. Deponiesickerwässer, anhand ihrer Wirkung vergleichend zu beurteilen. Auch kann damit die Veränderung des Wirkungsmusters über einen Aufbereitungsprozess beobachtet werden. Die Untersuchungsergebnisse zeigen zudem, dass auch bei der WBA Feldblindproben entscheidend sind, um Proben sicher beurteilen zu können.
Gegenstand der Wissenssoziologischen Diskursanalyse (WDA) ist der sozialpolitische Diskurs zur Weiterentwicklung der Eingliederungshilfe für Menschen mit Behinderungen in der Zeit von 2005 bis 2016. Im Rahmen der WDA wurden zwei Diskursformationen, die die Weiterentwicklung der Eingliederungshilfe notwendig machen erarbeitet: Der Kapazitätendiskurs, der einen monetären Sachzwang konstituiert, auf der einen und der emanzipatorisch-bürgerrechtliche Diskurs, der die Nichtpassung des gegenwärtigen Hilfesystems mit menschenrechtlichen Bestrebungen einer gleichberechtigten und selbstbestimmten Teilhabe am Leben in der Gesellschaft thematisiert, auf der anderen Seite. Zudem wurde die diskursive Konstituierung des zentralen Reformkonzepts "Personenzentrierung", das produzierte Wissen über dieses Konzept, die Strategien der beteiligten Akteure, die mit dem Konzept verfolgt werden, und die dahinterliegenden Deutungsmuster de- und rekonstruiert. Personenzentrierung konstituiert sich insbesondere durch ihre Abgrenzung zu der nicht mehr gewollten, paternalistischen und tendenziell kostenaufwendigen Institutionenzentrierung. Sie beschreibt einen Steuerungsmodus, der mit der Zentrierung des Individuums als zentrales Steuerungsmoment im Leistungsgeschehen und deren Vorstellungen, ihre Leben zu führen, die je passgenauen Leistungen je individuell komponiert (Hilfe folgt Bedarf). Die doppelte Anschlussfähigkeit von Personenzentrierung an die ausgehenden Problemdiskurse offenbart zwei zentrale Deutungsfiguren: Personenzentrierung wird einerseits zu einem sozialpolitischen Steuerungsinstrument, das bedarfsgerechtere und effizientere Leistungen organisiert und Leistungsberechtigte zur Mitwirkung aktiviert, um damit Kosten zu sparen, und andererseits zu einem Selbstbestimmungskonzept, das Leistungsberechtigte aus paternalistisch-fürsorglichen Strukturen befreit und sie als Experten ihrer eigenen Teilhabebedarfe in den Mittelpunkt rückt.
Der Anteil der Menschen, die persönlich oder familiär einen Herkunftsbezug zu Ländern außerhalb Deutschlands aufweisen, steigt seit Jahren an. Diese Menschen werden in der Bevölkerungsstatistik als Personen mit Migrationshintergrund erfasst, wobei vor allem die eigene Staatsangehörigkeit eine Rolle spielt, sowie diejenige der Eltern. In den Mobilitäts- und Verkehrswissenschaften ist das Wissen über diese Bevölkerungsgruppe in Deutschland sehr gering und fragmentiert. Wenig ist bekannt über das Vorhandensein von Nutzungsvoraussetzungen wie Führerscheinbesitz oder der Fähigkeit Fahrrad fahren zu können, über die Verfügbarkeit verschiedener Verkehrsmittel oder über das alltägliche Mobilitätsverhalten. Auffallend ist diese Lücke vor allem im Vergleich mit den USA, wo sich Verkehrs-, Bildungs- und Gesundheitswissenschaften mit dem Mobilitätsverhalten von Migranten beschäftigen. Ziel dieser Arbeit ist es, diese Wissenslücke für Deutschland zu verkleinern. Dabei stellt sich die Frage, ob sich Menschen mit Migrationshintergrund unter den hiesigen Rahmenbedingungen in ihren Mobilitätsvoraussetzungen und in ihrem alltäglichen Mobilitätsverhalten von den Menschen ohne Migrationshintergrund unterscheiden. Darüber hinaus ist die Identifikation wichtiger Einflussfaktoren zur Erklärung des Verhaltens von besonderem Interesse. Grundlage ist eine - teilweise explorativ angelegte - empirische Studie zum Mobilitätsverhalten von Menschen mit und ohne Migrationshintergrund in Offenbach am Main, die 2010 im Rahmen eines Forschungsprojekts am ILS-Institut für Landes- und Stadtentwicklungsforschung gGmbH durchgeführt wurde. Die Ergebnisse zeigen sowohl Gemeinsamkeiten als auch Unterschiede zwischen den Gruppen. Diese betreffen soziodemografische und -ökonomische Faktoren, mobilitätsbezogene Voraussetzungen wie Führerscheinbesitz oder Verkehrsmittelverfügbarkeit, Fragen zur Mobilitätskultur im Elternhaus, aber vor allem die alltägliche Nutzung verschiedener Verkehrsmittel. Die Ergebnisse werden in dieser Arbeit in Artikelform kumulativ präsentiert und durch einen einrahmenden Text eingeleitet, eingeordnet und im Zusammenhang diskutiert.
Das digitale Spiel "The Witcher 3: Wild Hunt" bietet mit seinen Erweiterungen "Hearts of Stone" und "Blood and Wine" eine riesige digitale Welt voller komplexer Handlungsmuster, Charaktere und Orte. Gestützt auf die Lesart von Mendonça und Freitas versteht die vorliegende Arbeit das digitale Spiel als Text. In einem close reading werden in das Spiel integrierte Motive und Genrekonventionen anhand exemplarischer Beispiele herausgearbeitet. Durch die Analyse von referenziellen Versatzstücken wird der Frage nachgegangen, wo sich in "The Witcher 3: Wild Hunt" kulturelle Konventionen und Innovationen finden und inwiefern mit gewohnten Mustern gespielt wird. Durch die Entschlüsselung von Codes wird beobachtet, wo durch dieses Spiel mit den Konventionen mit Erwartungen der Spieler gebrochen wird, um so neue Bedeutung zu generieren. Den Landschaften und Bewohnern kommt eine genaue Untersuchung zu, wobei der Fokus dank Aussagen der Entwickler auf den Konstrukten der "Polishness" und "Slavicness" liegt. Betrachtet werden Easter Eggs als intertextuelle Zitatebenen sowie die als polnisch behaupteten Landschaften, die Verhandlung des Fremden, die Konstruktion "slawischer" Monster/Antagonisten und die Darstellung weiblicher Charaktere. Obwohl in einigen dieser Konzepte Widersprüchlichkeiten festgestellt werden, finden sich in ihnen auch Ansätze zur Innovation, die auf neue Muster in der Entwicklung zukünftiger digitaler Spiele hoffen lassen. Somit lohnt es, als "polnisch" behauptete Landschaften, die nicht identitätsstiftenden wirken sollen, angeblich "slawische" Monster und Antagonisten, die sich als transkulturelle Hybride entpuppen, und Frauen, deren Stärke durch ihre Sexualisierung untergraben wird, näher zu betrachten.
Das 21. Jahrhundert als "urban century" bietet neben vieler positiver Aspekte auch zahlreiche Herausforderungen im Stadtraum. Neben Stressfaktoren wie Lärm und Umweltverschmutzung nehmen Extremwetterereignisse wie Hitze und Starkregen zu, muss also eine Klimafolgenanpassung erfolgen und muss zusätzlicher Wohnraum für mehr Menschen geschaffen werden. Erholungs- und Aktivitätsräume stehen zudem in Konkurrenz zum Ausbau der Infrastruktur. Die Herausforderungen bedingen die Notwendigkeit für transdisziplinäre Diskurse und Arbeitsweisen im Rahmen einer klimawandelgerechten Stadtentwicklung. Mit diesem Hintergrund setzt sich die Arbeit zum Ziel Potenziale zu erarbeiten, die sich in Lüneburg für eine Begrünung der Innenstadt bieten, um dem sich wandelnden Klima zu begegnen, sowie herauszuarbeiten welche Akteuren, Schlüsselfaktoren und Schlüsselelemente die Umsetzung von Begrünungsmaßnahmen einschränken oder stärken. Mit der Methode der Konstellationsanalyse sollen zukunftsgerichtete und zentrale Handlungsfelder verdeutlicht werden. Es soll die Basis für eine erfolgreiche und nachhaltige Arbeitsweise sowie Zusammenarbeit im Bereich der Klimafolgenanpassung in Lüneburg gelegt werden.
"Einfachheit" gehört zu den maßgeblichen Begriffen, mit denen in der Kunst-, Kultur- und Literaturgeschichte unterschiedliche Wertzuschreibungen einhergehen. Seit Ende des 20. Jahrhundert setzt sich nebenher ein globalisierter Lifestyle durch, der mit geschickten Werbetriggern eine "Sehnsucht nach Einfachheit" weckt und hohe Erwartungen an das Ideal der Komplexitätsbewältigung knüpft. Das damit einhergehende breite Funktionalisierungspotential wird hier aufgegriffen, um den neuen Fragen nachzugehen, warum die Einfachheit einen bemerkenswerten Erfolg in der deutschsprachigen Gegenwartsliteratur feiert und was uns vergleichbare Bewegungen in Architektur, Design und den visuellen Künsten über den aktuellen Ruf nach Einfachheit erzählen. Am Beispiel des erzählerischen Werks von Judith Hermann, Peter Stamm und Robert Seethaler wird erstmalig gefragt, mit welcher Intention und Qualität sich die Einfachheit in den Texten dieser Autoren formiert und ob es sich bei der Kunst der erzählerischen Reduktion um ein spezifisch für die Gegenwart relevantes Konzept handelt. Die Studie leistet damit einen wesentlichen Beitrag zu der noch ausstehenden literaturwissenschaftlichen Systematisierung einer "Ästhetik der Einfachheit".
Im Kontext der Problematik von Fehlinformationen in der populärwissenschaftlichen Literatur widmet sich diese Arbeit in einer Fallstudie drei häufig verkauften Büchern Peter Wohllebens. Untersucht wird, wie nah diese Werke sich am aktuellen Stand der Forschung orientieren und wie gut die getätigten Aussagen nachvollziehbar sind. Für die Untersuchung wurde der Inhalt der Bücher codiert und die resultierenden 8899 Codiereinheiten quantitativ und qualitativ-vergleichend analysiert. Ergänzt wurde dies durch die qualitativ-vergleichende Analyse von drei Schwerpunktthemen. Aus den Ergebnissen wird geschlussfolgert, dass Wohllebens Nähe zum wissenschaftlichen Diskurs unter Einschränkungen ausreichend und die Nachvollziehbarkeit seiner Aussagen mangelhaft ist. Basierend auf diesen Erkenntnissen werden mögliche Maßnahmen und Handlungsfelder für eine Erhöhung der wissenschaftlichen Qualität populärwissenschaftlicher Werke diskutiert. Es werden weitere potentielle Forschungsmöglichkeiten für ein besseres Verständnis der Situation in den Populärwissenschaften identifiziert und vorgeschlagen.
Im deutschsprachigen Raum fehlt es an gezielten präventiven Maßnahmen für Kindergartenfachkräfte, um das Emotionswissen von Kindern kontextsensibel und alltagsintegriert über die Sprache in Routinesituationen zu fördern. Diese Lücke soll durch die Entwicklung und Evaluation eines Emotionswissen-Trainings ("Em:-)s") für Kindergartenfachkräfte geschlossen werden. Im ersten Teil soll auf den theoretischen Hintergrund des Konstrukts "Emotionswissen" eingegangen werden. Darüber hinaus wird erklärt, wie sich das Emotionswissen im Kindergartenalter entwickelt, welche Rolle die Sprache spielt, warum die Förderung wichtig ist und welche aktuellen kommunikationsbasierten Tools geeignet sind, um das Emotionswissen bei Kinder zu fördern. Der folgende Abschnitt beschäftigt sich mit den Auswirkungen fehlender Förderung des Emotionswissens sowie den Fördermöglichkeiten im Kindergarten. Dabei wird auf bereits existierende Präventions- und Interventionsprogramme eingegangen. Im Anschluss folgt die theoretische Einbettung sowie die Entwicklung und Umsetzung von Emojis. Die verschiedenen Trainingsinhalte sowie die angewendeten Methoden werden vorgestellt. Dann folgen theoretische Vorüberlegungen sowie die Evaluation von Emojis auf vier verschiedenen Ebenen. Abschließend werden in diesem Abschnitt Zielsetzungen und Fragestellungen der Evaluation formuliert. Im folgenden Abschnitt werden dann die verwendeten Methoden näher vorgestellt. Im Ergebnisteil erfolgt zuerst die Analyse der fehlenden Werte. Da in der vorliegenden Arbeit eine hohe Anzahl an fehlenden Werten vorlag, wurden die Daten imputiert und anschließend separat (originale und gepoolte Daten) dargestellt. Es folgt im Anschluss eine Darstellung der methoden- und erwartungsbezogenen Ergebnisse. Im letzten Abschnitt der Arbeit werden die Ergebnisse der Evaluationsstudie interpretiert und in die aktuelle Forschung eingeordnet. Darüber hinaus werden die Ergebnisse der Dissertation mit drei anderen deutschsprachigen Präventionsprogrammen verglichen. Abschließend werden die Limitationen der Evaluationsstudie besprochen.
Aufbauend auf einem interdisziplinären Modell, das sowohl kognitionspsychologische als auch mathematikdidaktische Fähigkeiten beim Schätzen von visuell erfassbaren Größen (Längen, Flächeninhalte, Fassungsvermögen, Rauminhalte) beinhaltet, und einem Modell zur Systematisierung verschiedener Aufgabenmerkmale wurde im Rahmen dieses Dissertationsprojekts ein schriftlicher Schätztest entwickelt. Der Schätztest beinhaltet insgesamt 48 Items, deren Merkmale zwischen den Größen parallelisiert und gleich verteilt sind (12 Items pro Größe) Die Daten des Tests werden genutzt, um verschiedene Arten der Ermittlung und Bewertung von Schätzgenauigkeit zu untersuchen, die Schätzgenauigkeit von Kindern der vierten, fünften und sechsten Klasse zu ermitteln und um den Zusammenhang der vier Größen zu beschreiben. Die Untersuchung verschiedener klassischer Fehlerberechnungs- und Bewertungsarten zeigt wesentliche Unterschiede in Testleistung und Testgüte. Die Berechnung des logarithmischen Fehlers in Verbindung mit einem logarithmischen Scoring wird als ein alternatives Verfahren genutzt. Die Analyse der Schätzergebnisse von 900 Kindern zeigt, dass sich die Schätzgenauigkeit von Kindern der vierten und sechsten sowie fünften und sechsten Klassen signifikant unterscheidet: Kinder aus höheren Jahrgängen schätzen genauer als Kinder aus niedrigeren Jahrgängen. Es konnte kein signifikanter Unterschied bei der Schätzgenauigkeit zwischen Kindern der vierten und fünften Klassen festgestellt werden. Darüber hinaus unterscheidet sich Schätzgenauigkeit signifikant zwischen den Größen: Längen werden am genauesten geschätzt, gefolgt von Fassungsvermögen, Flächeninhalten und Rauminhalten. Alle Größen korrelieren bezüglich der Schätzgenauigkeit moderat miteinander. Die Schätzgenauigkeit von Längen kann als Prädiktor für die Schätzgenauigkeit der anderen Größen herangezogen werden.