Filtern
Erscheinungsjahr
- 2005 (69)
- 2007 (63)
- 2006 (62)
- 2001 (54)
- 2003 (52)
- 2019 (39)
- 2004 (38)
- 2016 (38)
- 2002 (36)
- 2000 (34)
- 2013 (34)
- 2021 (33)
- 2012 (29)
- 2015 (29)
- 2023 (28)
- 2014 (25)
- 2020 (25)
- 2018 (23)
- 2017 (22)
- 2022 (21)
- 2008 (20)
- 2010 (16)
- 1999 (15)
- 1996 (13)
- 1998 (13)
- 2011 (12)
- 1992 (9)
- 2009 (9)
- 1991 (5)
- 1995 (5)
- 1997 (3)
- 1989 (2)
- 1990 (2)
- (1)
- 1986 (1)
- 1988 (1)
- 1993 (1)
- 2024 (1)
Dokumenttyp
- Dissertation (240)
- Research Paper (114)
- Bachelorarbeit (79)
- Teil eines Buches (Kapitel) (78)
- Diplomarbeit (60)
- Bericht (60)
- Wissenschaftlicher Artikel (51)
- Masterarbeit (50)
- Buch (Monographie) (42)
- Arbeitspapier (41)
Sprache
- Deutsch (883) (entfernen)
Schlagworte
- Nachhaltigkeit (25)
- Informatik (18)
- Kultur (16)
- Schule (16)
- Lehrkräfte (13)
- Personalentwicklung (13)
- Personalpolitik (13)
- Kooperation (12)
- Lüneburg (12)
- Ausbildung (11)
Institut
- Frühere Fachbereiche (314)
- Fakultät Bildung (68)
- Fakultät Nachhaltigkeit (57)
- BWL (52)
- Fakultät Wirtschaftswissenschaften (46)
- Fakultät Kulturwissenschaften (43)
- Psychologie/Wirtschaftspsychologie (38)
- Philosophie (27)
- Informatik/Wirtschaftsinformatik (22)
- Institut für Nachhaltigkeitssteuerung (INSUGO) (17)
Ein wesentlicher Beitrag zur rationalen Verwendung unserer Energieresourcen kann durch die konsequente Nutzung diskontinuierlich anfallender Wärmeenergie erbracht werden, was aufgrund der zeitlichen Verschiebung von Wärmeangeboten und Wärmebedarf auf direktem Wege oft nicht möglich ist. Dies gilt sowohl für die Nutzung anfallender Abwärme aus Kühlprozessen als auch den ökonomiaschen Einsatz von Solarenergie. Dazu ist erforderlich, mit Hilfe eines effizienten Energiespreichers den überschüssigen Energieanfall zu verlagern.
Die Alkoholproblematik am Arbeitsplatz stellt einen wichtigen Teilaspekt der allgemeinen Suchtproblematik dar. In der vorliegenden Arbeit wird dargestellt, welche Möglichkeiten, aber auch welche Grenzen des hilfreichen Handelns am Arbeitsplatz allgemein und am Arbeitsplatz Universität insbesondere gegeben sind. Die Arbeit ist in vier Hauptteile gegliedert, die Gegenstand und Prozeß nachvollziehbar beschreiben. Im Teil I wird ausgehend von der Ätiologie und der Pathogenese die Funktion und Bedeutung der Droge Alkohol in der Gesellschaft beschrieben und der Zusammenhang zwischen Arbeitsbedingungen und Konsumverhalten dargelegt. Die Vorstellung eines Modells betrieblicher Alkoholprävention schließt sich im Teil II an. Die Implementierung eines Alkoholprogrammes an der Pilot-Universität wird im Teil III beschrieben. Unter Berücksichtigung erster Forschungsergebnisse wird ein Handlungskonzept für die Alkoholprävention an der Pilot-Universität formuliert, in dem jedoch Organisationsstruktur und Organisationskultur von Universitäten und Hochschulen noch nicht ausreichend berücksichtigt sind. Im letzten Teil der Arbeit wird daher der Versuch unternommen, ein Konzept zu entwerfen, das sich an der Methode der Organisationsentwicklung orientiert.
Bilder und Worte sind kulturelle Errungenschaften beträchtlicher Erfindungshöhe. Beide legen einen Ausschnitt des Interesses fest, beide isolieren semantische Elemente aus dem komplexen Strom kommunikativer Akte. Doch hat in Hinblick auf Indizierung die Erfindung von Wörtern einen besonderen Vorteil den Bildern gegenüber: es gibt nur endlich viele von ihnen, die auf einen bestimmten Begriff verweisen, es können Lexika geschrieben werden, die diesen Zusammenhang kodifizieren, und diese Lexika können alphabetisch geordnet sein, so die Brücke zwischen der Semantik und dem Berechenbaren schlagend.
E-Commerce, E-Business und Online-Shops sind gängige Themen in Wirtschaftszeitschriften. Jedoch werden Internet-Unternehmen in letzter Zeit nicht mehr sehr grosse Erfolgsaussichten eingeräumt. Die vorliegende Arbeit beschäftigt sich daher mit den kritischen Erfolgsaussichten von Electronic-Commerce-Firmen und ist in erster Linie für Unternehmen interessant, die einen Online-Shop betreiben oder aufbauen möchten.
Im Rahmen der Diplomarbeit wurde für eine Robotersteuerung eine neue, möglichst universelle Datenschnittstelle entworfen und implementiert. Als standardisiertes Format wird dabei XML eingesetzt.
Ziel der Diplomarbeit ist der Entwurf eines Klassifizierungssystems für Fräswerkzeuge sowie die Entwicklung einer darauf aufbauenden Werkzeugverwaltung.
Evaluation des Lehramtsstudiengangs aus der Sicht der Studierenden an der Universität Lüneburg
Es geht um „governance“ in vertikalen Produktions- und Handelsketten, die agrarische Rohstoffproduktion in Entwicklungsländern und industrielle Verarbeitung in Industrieländern in Sequenzen von Unternehmen und Märkten miteinander verbinden.
Der Aufsatz beschreibt die Erfahrungen im Bereich des Electronic Government (E-Government), die im Rahmen des Forschungsprojektes eGOV gemacht wurden. Die Bedeutung von E-Government als Reform- und Modernisierungskonzept erfreut sich wachsender Beachtung.
Die vorliegende Diplomarbeit entstand im Rahmen eines Praxissemesters in der Marketinggesellschaft für niedersächsische Agrarprodukte in Hannover. Sie beschäftigt sich mit Qualitätssicherungssystemen und Zertifizierung in der Agrarwirtschaft, die durch die Verunsicherung der Verbraucher im Kontext BSE und anderer Lebensmittel-Skandale immer mehr an Bedeutung gewinnen.
Die vorliegende Diplomarbeit beschreibt die Einsatzmöglichkeiten und die Wirkung einer City Card am Beispiel der Stadt Hameln, wo sich im Rahmen des Stadtmarketings eine City Card als Kundenbindungsinstrument etabliert hat.
Die vorliegende Arbeit beschäftigt sich mit den Ausprägungen des Shareholder Value Konzeptes im Rahmen des Investitionscontrollings.
Forschungsbericht des Fachbereichs Wirtschafts- und Sozialwissenschaften der Universität Lüneburg für 2004
Using a large recent representative sample of the adult German population this paper demonstrates that nascent necessity and nascent opportunity entrepreneurs are different with respect to some of the characteristics and attitudes considered to be important for becoming a nascent entrepreneur, and that they behave differently. Given the lack of longitudinal data, however, we have no information about the performance of entrepreneurs from both groups in the longer run.
Mikroökonometrische Studien mit Firmendaten aus vielen Ländern zeigen, dass exportierende Firmen eine höhere Produktivität aufweisen als Firmen, die lediglich den jeweiligen Binnenmarkt ihres Sitzlandes beliefern, und dass es einen Selbstselektionsprozess der produktiveren Firmen auf Auslandsmärkte gibt, während anderseits Exporttätigkeit nicht unbedingt die Produktivität verbessert. Der vorliegende Beitrag präsentiert empirische Befunde hierzu mit Daten für niedersächsische Industriebetriebe aus den Jahren 1995 bis 2004. Folgende Fragen stehen im Mittelpunkt: Wie unterscheiden sich Produktivität und Produktivitätswachstum zwischen exportierenden und nicht-exportierenden mittelständischen Betrieben? Gehen die produktiveren Betriebe den Schritt auf den Weltmarkt? Führen Exporte zu höherer Produktivität? Die Implikationen der Ergebnisse werden dann vor dem Hintergrund der internationalen Evidenz zum Zusammenhang zwischen Exporttätigkeit und Produktivität diskutiert.
Weder junge noch alte Firmen sind jeweils homogen. Die wichtigste Entdeckung in mikroökonometrischen Studien ist und bleibt – mit den Worten von James Heckman (2001, p. 674) in seiner Nobelpreis-Rede – „the evidence on the pervasiveness of heterogeneity and diversity in economic life.“ Brown, Hamilton und Medoff (1990, 91) beendeten ihr Buch zu großen und kleinen Firmen mit der Bemerkung: „Sentiment aside, the results of our research suggest a clear message for policies affecting large and small firms: do not judge employers by their size alone.“ Dies gilt hier entsprechend für junge und alte Firmen – auch die dürfen nicht allein nach ihrem Alter beurteilt werden.
Die Arbeit untersucht, ob die Wahrnehmung einer Filmszene verändert wird, wenn eine kontrapunktierende Musik oder eine Actionmusik erklingt. Als Orientierung diente die musikfreie Originalfassung der Actionsszene. Am Beispiel von Szenen aus „Gladiator“, „Titanic“ und „Dreamcatcher“ wurde anhand von 1212 Studenten festgestellt, dass die visuelle Ebene zu dominierend ist, und die Versuchspersonen unabhängig von der musikalischen Untermalung stets ähnliche Urteile abgaben. Die Wahrnehmung der Filmszene wird nicht durch die o.a. Musiken verändert.
Die Befragung Lüneburger Handwerksbetriebe, die im Rahmen eines Projektes zur Regulierung auf dem deutschen Handwerksmarkt in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführt wurde, soll Auswirkungen der Anfang 2004 erfolgten Handwerksreform erfassen. Dabei liegt der Schwerpunkt dieses Artikels auf der Ausbildungsleistung des Handwerks. Die theoretischen Ansätze zur Erklärung betrieblicher Lehrstellenangebote sollen mit den Ergebnissen der ersten Befragungsrunde über die Determinanten der Ausbildungsentscheidung im Lüneburger Handwerk konfrontiert werden.
Die Anfang 2004 durchgeführten Reformen auf dem Handwerksmarkt hatten vor allem eine Erleichterung des Marktzutritts und damit mehr Wettbewerb zum Ziel. Die erwartete Zunahme der Anbieter, durch die es zu sinkenden Preisen und einer steigenden Nachfrage kommen soll, konnte zumindest auf Teilmärkten beobachtet werden. Der Artikel soll anhand von Beispielen des sehr heterogenen Handwerksmarkts aufzeigen, wie sich der Wettbewerb unter der Annahme unterschiedlicher mikroökonomischer Modellkonstellationen (vollständige Konkurrenz, Monopol, monopolistische Konkurrenz und Qualitätswettbewerb) entwickelt. Auf Grundlage einer Ende 2004 in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführten Befragung Lüneburger Handwerksbetriebe sollen dazu erste ökonometrische Auswertungen vorgestellt werden, die sich mit den Auswirkungen der Reform auf die wirtschaftliche Lage der Betriebe befassen.
Neben bereits seit längerer Zeit laufenden Kooperationsprojekten zwischen Statistischen Ämtern und externen Wissenschaftlern sind in jüngster Zeit bei den großen amtlichen Datenproduzenten Forschungsdatenzentren (FDZ) entstanden, die Wissenschaftlern den Zugriff auf Mikrodaten aus zahlreichen Erhebungen gestatten. In diesem Vortrag soll an ausgewählten Beispielen gezeigt werden, welche politikrelevanten Folgerungen aus Ergebnissen von Analysen mit den für die Wissenschaft neu erschlossenen wirtschaftsstatistischen Einzeldaten für Betriebe und Unternehmen gezogen werden können. Hierbei werden die Bereiche Arbeitsplatzdynamik, Exportverhalten und technische Effizienz betrachtet. Die zentrale Botschaft aus zahlreichen Studien für die Wirtschaftspolitik läßt sich in einem Satz zusammenfassen: Wirtschaftspolitische Maßnahmen sollten sich nicht an Kategorien wie Wirtschaftszweig oder Firmengröße orientieren, denn diese Einteilungen sind nicht trennscharf im Hinblick auf Eigenschaften von Betrieben wie Wachstum, Exporterfolg oder Effizienz.
Die vorliegende Arbeit beschäftigt sich mit einer Methodik, wissensbasierte Kommunikation in einem verteilten System zu realisieren. Als Szenario dient der Organic Room, ein Raum mit intelligenter Haustechnik, der sich möglichst eingenständig an die Bedürfnisse des Menschen anpasst und sich dabei energieeffizient verhält.
Das Institut für Volkswirtschaftslehre der Universität Lüneburg legt hiermit seinen ersten eigenständigen Forschungsbericht vor. Seit 1999 erschien unser Bericht als Teil des Forschungsberichts des Fachbereichs Wirtschafts- und Sozialwissenschaften; dieser Bericht wurde nach dem Berichtsjahr 2005 eingestellt, da der Fachbereich seit 2006 Teil der neuen Fakultät II ist. Für die Fakultät II ist bisher kein solcher ausführlich informierender Forschungsbericht vorgesehen.
Für die Neufassung der Handwerksordnung zum 1.1.2004 war die hohe Ausbildungsleistung des Handwerks ein zentrales Argument, die im Falle einer überzogenen Deregulierung einbrechen würde. Folgt man der ökonomischen Theorie werden Handwerksbetriebe ausbilden, wenn der erwartete Nutzen die erwarteten Kosten überwiegt; Ausbildung wird zum unternehmerischen Erfolgsfaktor. Die zweimalige Befragung Lüneburger Handwerksbetriebe, die im Rahmen eines Projektes zur Regulierung auf dem deutschen Handwerksmarkt in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführt wurde, zeigt, dass vor allem die Ausbildungsaktivität selbst zu einer guten bis sehr guten wirtschaftlichen Lage führt bzw. diese verbessert. Allerdings ist dieser Effekt nach relativ kurzer Frist (zwei Jahre oder mehr) wieder verschwunden.
In der öffentlichen Diskussion gilt als allgemein akzeptiert, dass in Deutschland ein Zusammenhang zwischen Firmengröße und Arbeitsplatzdynamik besteht, der sich durch den stilisierten Fakt beschreiben lässt, dass kleine und mittlere Firmen vorwiegend Arbeitsplätze schaffen, während in großen Firmen vor allem Arbeitsplätze abgebaut werden. Der Mittelstand gilt als Jobmotor. Der vorliegende Beitrag zeigt, dass eine Auswertung von Längsschnittdaten für Betriebe Zweifel an dieser einfachen Sichtweise begründen kann. In mittelständischen Betrieben entstehen viele Arbeitsplätze, aber es werden auch viele abgebaut, und dasselbe gilt für Großbetriebe. Wachsende und schrumpfende, neu gegründete und geschlossene Betriebe sind in jeweils erheblichem Umfang in jedem Jahr in allen Größenklassen anzutreffen. Wirtschaftspolitische Maßnahmen mit einer spezifischen Ausrichtung auf bestimmte Firmengrößenklassen lassen sich daher nicht mit einem besonders ausgeprägten Beitrag dieser Firmen zur Beschäftigungsdynamik rechtfertigen.
Text zum Ausstellungskatalog von Franz John: Turing Tables.
Die Ensembles der bildenden Künstlerin Anna Oppermann (1940-1993) zeichnen sich durch ihre Selbstreferentialität, durch ihre vielfältigen Verknüpfungen und Verflechtungen der einzelnen Elemente untereinander aus und bilden so tiefgründige Erfahrungs- und Assoziationsräume. Im Rahmen des Forschungsprojekts "Hypermediale Bild-, Text-, Videoarchive zur Dokumentation komplexer Artefake der Bildenden Kunst" beschäftigt sich seit 1997 eine Gruppe von Wissenschaftlern und Studenten an der Universität Lüneburg mit der strukturerhaltenden Dokumentation einiger wichtiger Ensembles in Bild, Text, innerem Aufbau und wechselseitiger Verknüpfung.
Die unternehmensinterne Kommunikation (IK) ist ein brisantes Thema, das bereits aus vielen Perspektiven heraus beleuchtet wurde. Trotz zahlreicher wissenschaftlicher Bemühungen sich dem Thema anzunehmen, ist bei vielen Mitarbeitern von Unternehmen bis heute eine Unzufriedenheit mit der nach innen gerichteten Kommunikationspolitik der Arbeitgeber zu beobachten. Diese lässt eine mangelnde gegenseitige Bezugnahme von Theorie und Praxis vermuten. In der vorliegenden Arbeit wird zunächst untersucht, was genau sich hinter dem „Modewort“ Kommunikation verbirgt. Dabei werden verschiedene Kommunikationsmodelle vorgestellt, die Hinweise darauf liefern, welche Aspekte beim Entwurf einer zeitgemäßen Kommunikationsauslegung zu berücksichtigen sind. Basierend auf den so gewonnenen Erkenntnissen wird ein eigenes Begriffsverständnis abgeleitet, das darum bemüht ist, der hohen Komplexität des Phänomens gerecht zu werden. Hervorzuheben ist dabei, dass Kommunikation immer gleichzeitig einen äußerlichen und einen innerlichen Prozess beschreibt, der es schwierig macht, diesen zu planen bzw. dessen Wirkung vorauszusagen. Wie gleich zu Beginn der Abhandlung erkennbar wird, weisen eine Reihe von Entwicklungen innerhalb von Unternehmen sowie in deren Umfeld auf die Notwendigkeit hin, dass es auch im internen Kommunikationsbereich zu Veränderungen kommt, die den sich wandelnden Rahmenbedingungen der Informationsprozessierung Rechnung tragen. Hervorzuheben sind in diesem Zusammenhang insbesondere „neue“ Organisationsstrukturen, veränderte Ansprüche von Mitarbeitern an die IK und die Durchdringung dieser mit immer neuen Medien. Diese drei grundsätzlichen Tendenzen stehen in direkter Verbindung zueinander und stellen Unternehmen -genau wie ihre Mitarbeiter- vor neue Herausforderungen. Zunächst wird der Medienbegriff näher untersucht, um ein für den Kommunikationskontext sinnvolles Medienverständnis zu formulieren. Medien werden hier als Hilfsinstanz im Kommunikationsprozess verstanden, die es erlaubt, Informationen auch über räumliche und/oder zeitliche Distanzen hinweg zu verbreiten. Eben diese Errungenschaften der Medien bergen gleichzeitig eine Reihe von Risiken, die nicht zuletzt auch den Erfolg von Kommunikation betreffen, der im internen Unternehmensbezug vor allem darin zu sehen ist, dass beim Empfänger von Informationen eine intendierte Reaktion erfolgt. Diese kann sich in einem bestimmten Verhalten, aber auch veränderten Ansichten und Einstellungen des Rezipienten niederschlagen. Da der Medieneinsatz im Rahmen der IK zunehmend an Bedeutung gewinnt, muss diesem Aspekt besondere Aufmerksamkeit zukommen. Wie unter Rückgriff auf verschiedene Kommunikationsmodelle deutlich gemacht wird, kommt es durch die medienbedingte strukturelle Veränderung der Kommunikation zu einer Reihe von Effekten, die meist mit Restriktionen verbunden sind. Sowohl Informations- als auch Kanalvielfalt werden häufig eingeschränkt und führen zu einer veränderten Kommunikationssituation. Für die Akteure bedeutet dies, dass sie mit einem reduzierten Kommunikationsdesign konfrontiert sind, da besonders nonverbale Informationen nicht selten herausgefiltert werden und/oder die Möglichkeit zur direkten Interaktion eingeschränkt wird. Gerade diese für persönliche Kontakte typischen Merkmale sind jedoch von großer Bedeutung für den Kommunikationserfolg. Das Ziel dieser Arbeit ist folglich, zielführende Mittel und Wege auszuloten, die eben beschriebene Defizite medialer Kontakte ausgleichen können und ihre Potentiale voll nutzbar machen. Eine wichtige Rolle spielen in diesem Zusammenhang die verschiedenen Koordinationsweisen von Unternehmen, die weitgehend auch für Kommunikationsprozesse Gültigkeit besitzen. Durch eine Untersuchung und Gegenüberstellung der einzelnen Koordinationsmechanismen wird deutlich, dass besonders solche bei der Abstimmung zwischenmenschlicher Informationsprozesse viel versprechend sind, die auf Beziehungen gestützt sind, also auf freiwilliger Basis ent- und fortbestehen. Kultur und Vertrauen als Repräsentanten dieser Kategorie werden besonders in jüngerer Zeit immer häufiger von der Organisationswissenschaft aufgegriffen. Sie haben im Vergleich zur zweiten identifizierten Gruppe der autoritätsbasierten Koordinationsweisen (z.B. Anweisungen, Regeln) den Vorteil, einen hohen Grad an Allgemeingültigkeit aufzuweisen, auch wenn dazu eine gewisse Vorlaufzeit zur Sammlung gemeinsamer Erfahrungen nötig ist. Eine ausgeprägte Allgemeingültigkeit ist in der Kommunikation deshalb unentbehrlich, weil eine Vielfalt situationsabhängiger Kontextvariablen das Geschehen bestimmt, von der im konkreten Fall nicht alle einzelnen berücksichtigt werden können, ohne hohen Zeit- und Kostenaufwand zu verursachen. So stellt sich heraus, dass nur der kombinierte Einsatz verschiedener Koordinationsformen wirksam sein kann, wobei Kultur und Vertrauen als beziehungsgeleitete Varianten besondere Betonung finden sollten. Kernpunkt der Dissertation ist deshalb eine Analyse einzelner Komponenten dieser Mechanismen, die unerlässlich ist, um ihre Wirkung im Rahmen der Kommunikationsprozessierung detailliert untersuchen zu können. Hier wird deutlich, dass medienbedingte Informationsdefizite und eingeschränkte Rückkopplungsmöglichkeiten erfolgreich durch eine günstige Ausprägung der verschiedenen Kulturbereiche sowie ein hohes Maß an Vertrauen auf verschiedenen Ebenen ausgeglichen werden können. Auf dem Weg zu einem umfassenden Optimierungskonzept der unternehmensinternen (Medien-)Kommunikation wird als abschließender Schritt ausführlich erläutert, wie sich auf Vertrauen und Kultur als Wegbereiter einer effektiven und effizienten zwischenmenschlichen Kommunikation einwirken lässt. Die diesbezüglich herausgearbeiteten Einflussfaktoren lassen sich zunächst grob in zwei Gruppen unterteilen, von denen die eine als personenbezogene und die andere als zwischenmenschliche Erfolgsdeterminante bezeichnet wird. Es geht hier einerseits um die kommunikationsrelevanten Kompetenzen einzelner Mitarbeiter, die sich auf deren Umgang mit Informationen, Medien sowie anderen Personen beziehen und maßgeblichen Einfluss auf die unternehmensinterne Lage von Vertrauen und Kultur in seinen unterschiedlichen Dimensionen üben. Andererseits sind es die im Rahmen der verschiedenen unternehmensinternen Informationsflussrichtungen erkennbaren Kommunikationsbereiche, die ihrerseits einen wichtigen Beitrag zur gezielten Förderung eines ertragreichen Miteinanders leisten. An dieser Stelle kristallisieren sich vielseitige Wirkungszusammenhänge heraus, die in der Arbeit ausführlich dargelegt werden. Zusammenfassend ist festzuhalten, dass Kommunikation im aufgegriffenen Themenkontext gleichzeitig als wichtiger Erfolgsfaktor und anvisierte Zielgröße in Erscheinung tritt, woran deutlich wird, dass Informationsprozesse in gewisser Weise sowohl das Mittel als auch den Zweck der herausgearbeiteten Optimierungsstrategie darstellen. Festzuhalten ist, dass Kommunikationsprozesse unter besonderer Berücksichtigung des verstärkten medialen Einflusses nur auf der Basis gesunder Beziehungen im Unternehmen gleichzeitig rational als auch effektiv sein können. Interne Beziehungen hängen ihrerseits von den Kompetenzen einzelner Mitarbeiter und dem reibungslosen Informationsfluss sowohl in vertikaler als auch horizontaler Richtung ab. Der Fokus bei der Organisation der IK muss folglich auf der Ausgestaltung günstiger Rahmenbedingungen bzw. Voraussetzungen als Grundlage für erfolgreiche Informationsprozesse liegen, während konkrete Einzelfallregelungen und Anweisungen auf diesem Gebiet eine eher untergeordnete Rolle spielen, da diese Mechanismen die hier auftretenden Problemstellungen nur unzureichend aufgreifen.
Das Auffinden von Bildern im Internet ist immer noch an die Sprache als Verweis- und Indizierungsvehikel gebunden. Der Struktur und dem bildimmanenten Aufbau eines Bildes wird dabei keine Bedeutung beigemessen, die treffsichere Beschreibung und Betitelung des Bildes durch den Publizierenden entscheidet über seine Auffindbarkeit im WWW. Dieser Text setzt sich mit derzeitigen Verweisstrukturen des WWW und ihrer Anwendbarkeit auf Bilder auseinander, zeigt Schwächen auf und stellt mit PeTAL ein im Aufbau befindliches System vor, das Abhilfe schaffen könnte.
Beschrieben wird eine bedeutende Karte des hohen Mittelalters, ihre Herkunft, ihr Gehalt, ihre Struktur, einige Aspekte des von ihr verkörperten Weltbildes sowie ihre Dokumentation mit digitalen Medien.
Diese Publikation setzt sich unter dem Leitmotiv der Digitalisierung mit Aspekten der Wissensvermittlung auseinander. In diesem Beitrag ist also zu klären, was Wissen und die Vermittlung des Wissens mit Computertechnik zu tun haben und des weiteren, wie sich das neue Medium Computer in den delikaten Prozeß einmischt, in dem sich Individuen ein Bild von der Welt machen.
Im Jahr 1991 fand in Lueneburg im dortigen Museum ein Ausstellungsprojekt statt, geplant und realisiert von Lehrenden und Studierenden unserer Universitaet. Anna Oppermann war eine der eingeladenen Kuenstlerinnen und steuerte ihr "Friduttchen"-Ensemble bei. Aus diesem Treffen entstand die Idee, den Versuch zu wagen, ihre hoch komplexe, fragile, vergaengliche Arbeit mit den informatischen und kunstwissenschaftlichen Methoden zu dokumentieren, die wir Gelegenheit hatten, ihr vorzustellen. Im folgenden Jahr entstanden dann in enger Absprache mit der Kuenstlerin erste Versionen eines digitalen Archivs ihres Ensembles "Umarmungen, Unerklaerliches und eine Gedichtzeile von R.M.R." Der Beitrag berichtet ueber das Projekt und die Dokumentation der Arbeit Anna Oppermanns mit dem XML-Standard PeTAL.
Die Paechsche "Figuration der Aufloesung" beschreibt den subkutanen Medienwechsel eines mittelalterlichen Manuskripts von 1239, verdraengt vom Satz mit den beweglichen Lettern eines Johann Gensfleisch zum Gutenberg um 1440 in die Turing-Galaxis der digitalen Medien des zwanzigsten Jahrhunderts. Diese Entwicklung wird hier am Beispiel der Ebstorfer Weltkarte nachvollzogen, die im Digitalen wieder ein adaequates Medium fand.
In diesem Text soll es um Computerkultur gehen, die mit den Begriffen Synthese, Mimesis und Emergenz beschrieben wird. Fuer das Kulturprodukt - vielleicht sogar Kulturindustrie-Produkt - Film ist die Zeit guenstig fuer ein solches Unterfangen, denn wir koennen mittlerweile gut zwanzig Jahre ueberblicken, wir koennen bei der technischen Basis des synthetischen fotorealistischen Computergraphik-Bildes beginnen, sind im Moment in der Hochzeit der Animation in voller mimetischer Pracht angelangt, sehen aber auch schon, was an hochgradig vernetztem Geschehen z. B. als massive online role game Emergenzen zeitigt.
Es geht um die Widerstaendigkeit des Bildes, um das Phaenomen des Unvermoegens von Suchmaschinen, Bilder ebenso effizient aus der Flut des online zugaenglichen Materials zu filtern, wie es bei Texten so exzellent funktioniert. Dabei wird die Pointe sein, dass es sich nicht um ein informatisches Problem handelt, eines, das sich mit raffinierteren Algorithmen und schnelleren Computern in den Griff bekommen liesse, sondern, dass es sich um ein kulturell emergentes Phaenomen handelt, also zum dritten Teil der Triade Synthese - Mimesis - Emergenz gehoert.
Cut,-Copy-and-Paste-Verfahren gelten in Kreisen der Hochkultur immer noch als verschrien und trennen "echte" Kunst eindeutig von Nicht-Kunst. Das Werk Glenn Goulds zeigt beispielhaft, dass solche Festschreibungen nicht immer gelten. Nach dem Ende des auratischen Kunstwerks entsteht keine in und durch die Medien neu vergesellschaftete Kunst, sondern ein neuer Mythos. Nach dem Mythos der High Fidelity folgt der Mythos der Produktionstechniken und ihrer Magier, ein Mythos, an dem Gould - neben seinen Kollegen aus der "populaeren Musik", den Beatles, den Beach Boys und ihren Studioingenieuren - als einer der Ersten kraeftig mitstrickt.
Turings Maschine ist, wie man weiß, nie gebaut worden, und dies wäre auch nicht möglich. Dennoch und gerade deswegen kann sie als das Vorbild eines jeden Computers gelten, der bislang gebaut wurde oder es je werden wird. Denn sie, Turings Gedanken- oder Papiermaschine, wurde mit Vorbedacht als ein so simpler Mechanismus entworfen, daß an ihrer prinzipiellen Realisierbarkeit und daran, dass sie ohne menschlichen Eingriff zu funktionieren imstande wäre, kein Zweifel bestehen kann.
Wir haben es bei unserem Thema also mit einem Phantasma zu tun, dem der Beseelung, der Unterstellung von Odem, von Atem, bei toter Materie, bei den Maschinen. Und auch der Eindruck, die Maschinen machten sich nach und nach selbständig, und sie hätten so etwas wie Autonomie, ist natürlich nicht von der Hand zu weisen. Niemand könnte mehr behaupten, etwa das Internet noch zu beherrschen, wie man ein Werkzeug beherrscht. Unbeherrschbarkeit ist ja geradezu ein notwendiges Charakteristikum selbstorganisierender Systeme. Aber ist es denn so, dass wir unsere Computersysteme nicht mehr direkt programmieren können, bleibt uns, wie bei Kontrollversuchen an autopoietischen Systemen nur die Handlungsoption, Bedingungen für Möglichkeiten zu schaffen, und sind wir dann zum Zusehen und Abwarten verurteilt, ob manches dann auch so kommt, wie wir es intendieren?
Es ist zu fragen, ob das Neue am Cyberspace tatsächlich eine gänzlich andere Topographie – jenseits der Grenzen des uns bekannten Raumes – oder eine ganz neue Ökonomie sei, die den Gesetzen des Kapitalismus nicht mehr gehorcht, ob im Cyberspace gar Raum, Zeit und Geld verschwänden, welche die neuen Verhältnisse sind, in denen wir ein Leben führen, das zweifellos tatsächlich ein anderes ist als vor Erfindung der weltumspannend vernetzten Digitalcomputer.
Die Funktion des Archivs ist eine unmögliche. Der Aufgabe, die Archivalien zu bewahren, indem man sie vor dem zerstörerischen Zugriff ihrer Nutzer bewahrt, ist unvereinbar mit der Aufgabe, die eingelagerten Materialien allgemein zugänglich zu machen. Digitale Datenhaltung könnte die Lösung des archivarischen Dilemmas sein, sie ermöglicht so gut wie verlustfreies kopieren und vervielfältigen von Daten. Die sich daraus ergebenden Ewigkeits-Vorstellungen zum Digitalen, legen den Schluß von »digital« auf »Archiv« nahe. Es ist allerdings, um die Pointe vorwegzunehmen, ein Kurz-Schluß, ein Phantasma und kein technisches Faktum, um das es hier geht. Das Digitale, wir werden es noch sehen, ist ein archivarischer Albtraum, und zwar aus vielerlei Gründen, die im Folgenden zur Sprache kommen sollen.
Entlang des Schemas aus den Begriffen Synthese, Mimesis und Emergenz, die auch immer als historische Kategorien begriffen werden, indem sie mit Epochen der Computertechnik parallel laufen, längs dieser Triade soll nun die Kunst zur Sprache kommen. Synthetisch ließen sich die frühen Computergraphiken und die stochastisch fundierten musikalischen Stilübungen Lejaren Hillers erzeugen; mimetischen Verfahren der Vor- und Nachahmung kommt man bei der interaktiven Medienkunst auf die Spur; vernetzt lassen sich künstlerische Experimente auf die Emergenzen des Sozialen ein.
Es dauert nicht mehr lange, dann wird es schwer werden, einen Computer zu fassen zu bekommen, geschweige denn, sich seiner mittels Handgreiflichkeiten zu entledigen. Die Autoren des einschlägigen Buchs über das Quantencomputing »The ultimate zero and one«, Colin Williams und Scott Clearwater, drücken das so aus: »Computers are starting to disappear before our very eyes by becoming part of the fabric of our world.«
Die schiere Quantität ist hier von zentralem Belang – als würde Engels’ ›Dialektik der Natur‹ wieder ihr Haupt aus dem gewiß geglaubten Grabe erheben und erneut fröhlich Quantität in Qualität umschlagen lassen. Es geht um obere und untere Grenzen von Informationsclustern, um die Frage also auch, ob dem Immer-Mehr nicht doch irgendwelche Grenzen gesetzt sind.
Interaktivität stellt fürr Virtualität eine notwendige Bedingung dar, denn zur subjektiven Konstruktion einer Realitätt aus computererzeugten Sinnesdaten muss sich die Feedback-Schleife aus Handlung, Wahrnehmung und darauf reagierender erneuter Handlung eng schließen. Der Text beleuchtet aus Sicht der Kulturinformatik die technikgeschichtlichen und kunsttheoretischen Zusammenhänge zweier Begriffe, die zentral sind für den Diskurs um und die Verortung von interaktiver Computerkunst.
Die Industriebetriebe erwirtschaften knapp ein Viertel des deutschen Bruttoinlandsprodukts. Der Monatsbericht für Betriebe des Verarbeitenden Gewerbes sowie des Bergbaus und der Gewinnung von Steinen und Erden stellt für diese Betriebe eine Reihe wichtiger Daten bereit. Seit Ende 2006 ist dieses Datenmaterial, aufbereitet als Panel für die Jahre 1995 bis 2004 (und für 1995 bis 2002 ergänzt um die Angaben industrieller Kleinbetriebe), für ganz Deutschland in den Forschungsdatenzentren der Statistischen Ämter für Wissenschaftler zugänglich. Dieser Beitrag zeigt an drei Beispielen die Forschungspotenziale dieser Paneldaten für die Aufdeckung von empirischen Fakten, die statistische Überprüfung von theoretischen Hypothesen und die wissenschaftliche Politikberatung auf.
Die Arbeit, von der die Rede sein soll, ist keine historische und keine philologische, sondern eine mediale. Wir haben vor vielen Jahren eine mediale Transformation an der Großen Ebstorferin vorgenommen, eine vom Pergament auf den Computerbildschirm, und dabei eine Zeitspanne der Medientechnik von 700 Jahren überbrückt, dabei die Ära des Buches übersprungen, die so stark unsere heutige Kultur geprägt, vielleicht besser: hervorgebracht, hat.
Wie viele andere Anregungen, so ist auch das Thema »Zeitpfeil« im Gespräch mit Claus Pias entstanden. Irgendwie sind wir auf das Thema gestoßen, inwieweit und ob Computer Maschinen mit Geschichte sind, ob reversibel oder nicht. Meine Physiker-Antwort, dass sie natürlich nicht-reversibel sind, weil sie bei der Arbeit warm werden, also Energie dissipieren, hat mich dann selbst nicht befriedigt, und so kam es, danach zu fragen, welche Arten von Entwicklung, welche Gesetzmäßigkeiten oder Zufälligkeiten benennbar sind, die der digitalen Informationstechnik einen Zeitpfeil, ein Jetzt, Zuvor und ein Danach geben.
Zweifellos gibt es fruchtbare Blickwinkel, unter denen Computermedien im Prozeß einer Sinnproduktion zu betrachten sind. Gerade wegen ihrer semantischen Enthaltsamkeit nämlich – zu der noch mehr und Weiteres zu sagen sein wird – wegen ihrer semantischen Abstinenz also sind Computer überaus wirksam bei der Errichtung symbolischer Ordnungen, treten sie als Apparate und Medien bei der Errichtung von Wissensordnungen in Erscheinung, die ohne sie nicht existieren würden.
Die vorliegende Diplomarbeit ist im Rahmen eines Praxissemesters bei der Hermes Warehousing Solutions GmbH (HWS) entstanden. Sie beschäftigt sich mit den besonderen Anforderungen an den Vertriebsprozess für beratungsintensive Dienstleistungen.
Empirische Befunde zeigen, dass exportierende niedersächsische Industriebetriebe produktiver als vergleichbare nicht exportierende Betriebe sind, wobei diese Unterschiede bereits vor dem Exportstart bestehen (also eine Selbstselektion der produktiveren Betriebe auf Exportmärkte stattfindet), während es für Lerneffekte im Zusammenhang mit Exportaktivitäten und daraus folgendem höherem Produktivitätswachstum in exportierenden Betrieben keine Evidenz gibt. Mit neu verfügbaren Paneldaten für deutsche Industriebetriebe und auf der Grundlage der Ergebnisse einer neuen international vergleichenden Studie zeigt dieser Beitrag, dass die Produktivitätsprämie in Niedersachsen so hoch wie im Durchschnitt für den Rest von Westdeutschland, aber höher als für Ostdeutschland ist. Niedersachsen nimmt im internationalen Vergleich damit einen Mittelplatz unter den hier betrachteten Ländern ein. Ein interregionaler bzw. internationaler Vergleich der Größenordnungen der Selektions- und Lerneffekte ist hier allerdings nicht möglich. Zwar zeigt eine Gegenüberstellung der Ergebnisse für Niedersachsen mit denen für das übrige West- bzw. für Ostdeutschland und mit den übrigen EU-Ländern in den meisten Fällen ein Bild ähnlich wie für Niedersachsen, aber die Gruppen der Starter umfassen dabei in der Regel nur wenige Firmen, und die geschätzten Koeffizienten sind sehr häufig statistisch insignifikant, so dass ein quantitativer Vergleich nicht möglich ist.
In der öffentlichen Diskussion in Deutschland wird häufig die These vertreten, dass Arbeitsplätze vorwiegend in kleinen und mittleren Firmen geschaffen werden, während die großen Firmen vor allem Arbeitsplätze abbauen. Eine empirische Überprüfung für den Zeitraum 1999 bis 2005 mit Daten aller west- und ostdeutschen Betriebe, die mindestens einen sozialversicherungspflichtig Beschäftigten haben, zeigt, dass die These vom alleinigen „Jobmotor Mittelstand“ viel zu undifferenziert ist. In mittelständischen Unternehmen werden zwar überproportional viele Arbeitsplätze geschaffen, aber auch überproportional viele abgebaut. Großbetriebe mit 250 und mehr Beschäftigten weisen dagegen sowohl bei der Schaffung als auch beim Abbau von Arbeitsplätzen geringere Werte auf als es ihrem Beschäftigungsanteil entspräche. Wirtschaftspolitische Maßnahmen, die sich an der Zuordnung eines Unternehmens zu einer Größenklasse orientieren, lassen sich somit nicht mit einem besonders ausgeprägten Beitrag der Firmen aus dieser Größenklasse zum Beschäftigungswachstum rechtfertigen.
Zahlreiche Untersuchungen belegen, dass die exportierenden Firmen den nur für den Inlandsmarkt produzierenden Firmen in vieler Hinsicht überlegen sind – sie sind im Durchschnitt größer, produktiver und innovativer, und sie waren dies schon, bevor sie mit dem Export begonnen haben. Eine offene Frage ist, wie und in welchem Maße die Firmen dann vom Export profitieren. Ökonometrische Auswertungen auch der Basis von Längsschnittdaten von Firmen zeigen nur selten positive Auswirkungen der Exportaktivitäten. Dies kann auch an den hierbei verwendeten Methoden liegen, denn ein Vergleich der exportierenden Firmen mit sich selbst in einer Situation ohne Export ist ja nicht möglich. Eine direkte Befragung von Exporteuren kann hier neue Erkenntnisse bringen. Eine Befragung von exportierenden Firmen aus den IHK-Bezirken Lüneburg- Wolfsburg und Stade zeigt, dass die Firmen sehr heterogen sind – nicht alle profitieren in gleicher Weise und in gleichem Maße vom Export. Große positive Effekte finden sich bei mehr als der Hälfte der Firmen bezogen auf Wachstum, Kapazitätsauslastung und Erträge sowie bei rund 40 Prozent mit Bezug auf den Ausgleich inländischer Konjunkturschwankungen. Umgekehrt sieht es bei den „Lerneffekten“ (Anregungen von Auslandskunden zur Verbesserung der Produkte; Steigerung der Produktivität als Reaktion auf höheren Wettbewerbsdruck auf Auslandsmärkten; bessere Einschätzung der eigenen Konkurrenzfähigkeit aufgrund von Kontakten mit Konkurrenten auf Auslandsmärkten und daraus folgende entsprechende Reaktionen) aus – hier überwiegen deutlich die Angaben wonach keine oder allenfalls geringe Effekte vorliegen. Was erklärt die in der Befragung festgestellten Unterschiede zwischen den Firmen in Bezug auf die Auswirkungen der Exporttätigkeit? Als zentrales Ergebnis können wir festhalten, dass bis auf den Exportanteil am Umsatz keine der anderen betrachteten Firmeneigenschaften wie Größe, Dauer der Exporterfahrung, Forschungs- und Entwicklungstätigkeit oder Auslandsniederlassungen ausschlaggebend dafür sind, ob eine Firma vom Export in verschiedener Hinsicht positiv beeinflusst wird oder nicht. Vom Export können also sehr unterschiedliche Firmen gleichermaßen profitieren, wobei tendenziell die Wahrscheinlichkeit dafür, dass ein starker positiver Effekt zu beobachten ist, mit zunehmendem Anteil des Auslandsumsatzes am Umsatz ansteigt. Simulationsrechnungen mit den geschätzten Modellen zeigen hierbei: Wenn es Effekte des Exports gibt, dann werden diese in der Regel erst ab einem Exportanteil am Umsatz von mindestens 25 Prozent deutlich.
Das Ziel dieser Arbeit war es, ein Lernarrangement (=Modul) zur Gesundheitsförderung durch „Emotions-zentrierte Selbstreflexion und kollegiale Supervision“ zu entwickeln, zu erproben und hinsichtlich seiner Effekte auf die Gesundheit und Leistungsfähigkeit angehender Sozialassistentinnen und Erzieherinnen zu überprüfen. Mit dieser Untersuchung wurden außerdem erstmalig gesundheits- und leistungsrelevante Persönlichkeits- und Verhaltensvariablen angehender Sozialassistentinnen und Erzieherinnen erhoben, die als Ressourcen, Hilfen und Schutzfaktoren für die gesundheitsförderliche Bewältigung der beruflichen und privaten Anforderungen von besonderer Bedeutung sind. Vor diesem Hintergrund wurde auch das Training der „Emotions-zentrierten Selbstreflexion und kollegialen Supervision“ konzipiert. Neben einer generellen und differenziellen Wirkungsanalyse im Hinblick auf das Modul „Emotionszentrierte Selbstreflexion und kollegiale Supervision“, realisiert durch ein Vorher-Nachher-Kontrollgruppen-Design an einer Stichprobe von knapp 400 Teilnehmerinnen, leistet die vorliegende Untersuchung vor allem einen Klärungsbeitrag darüber, über welche gesundheitsdienlichen Ressourcen Erzieherinnen und Sozialassistentinnen während ihrer Ausbildung verfügen, welche Beziehung zwischen diesen Ressourcen bestehen und welche Skalen sich für eine Eignungsanalyse eignen würden. Ferner wurde ein Instrument zur Erfassung der berufsspezifischen Selbstwirksamkeit von Erzieherinnen und Sozialassistentinnen in Anlehnung an ein Berufseignungsinventar für das Lehramtsstudium entwickelt und hinsichtlich seiner Korrelationen zu den bereits erprobten Skalen überprüft. Die erhobenen Persönlichkeits- und Verhaltensvariablen der Erzieherinnen und Sozialassistentinnen unterstreichen die Relevanz einer frühzeitigen Intervention zur Stärkung personaler Ressourcen, vor allem deshalb, weil einige Erzieherinnen und Sozialassistentinnen nur über besonders gering ausgeprägte personale Ressourcen verfügen. Wichtig wäre vor allem, dass schon zu Beginn der Ausbildung angehende Sozialassistentinnen und Erzieherinnen ihre Passung zwischen den künftigen Berufsanforderungen und ihrem individuellen Eignungsprofil selbst diagnostizieren und sie mit differenziellen Maßnahmen begleitet werden, damit sie sich in eine für sie und ihre Berufsaufgaben günstige Richtung entwickeln können. Gezielte Selbstreflexionen emotionsrelevanter Tagesereignisse und kollegiale Supervision sollten als ein Modul in Aus- und Fortbildung zur Steigerung der Reflexionsfähigkeit, der emotionalen Kompetenz und anderer personaler Ressourcen implementiert und intensiv trainiert werden.
Die in dieser Sammlung zusammengetragenen Texte reicht der Autor als kumulative Habilitationsleistung bei der Fakultät »Umwelt und Technik« der Leuphana Universität Lüneburg zum Zwecke des Erwerbs der Lehrbefugnis für die Fachrichtung »Informatik/Digitale Medien« ein. Die Texte sind alle in den letzten zehn Jahren veröffentlicht worden, meist im Druck, einige online. Als Einzelveröffentlichungen behandeln sie jeweils separate Themen, deshalb werden ihr Ursprung, der Gesamtzusammenhang und die daraus entwickelbaren Perspektiven für Forschung und Lehre an der Leuphana Universität Lüneburg im Folgenden umrissen.
Der Seehund wird in Monitoring-Programmen zum Zustand des Ökosystems Wattenmeer (z.B. TMAP) als ein Indikatororganismus genutzt. Aufgrund der Position im Nahrungsnetz (Top-Prädatoren) und der langen Lebensspanne sind Seehunde besonders stark mit Schadstoffen belastet, u.a. mit Polychlorierten Biphenylen (PCB) und Perfluoroctansulfonat (PFOS). Zahlreiche Studien deuten darauf hin, dass die Schadstoffbelastung die Gesundheit der Seehunde beeinträchtigt. Das Ziel unserer Arbeitsgruppe ist die Identifizierung neuer Biomarker, die im Lebendmonitoring von Seehunden eingesetzt werden können. Ziel der vorliegenden Arbeit war die Ausarbeitung und Etablierung eines Zellkulturmodells, welches in weiterführenden Arbeiten die Identifizierung der Biomarker ermöglicht. Als Biomarker sollen Proteinmuster verwendet werden, die eine Früherkennung von schadstoffbedingten Veränderungen in der Seehundpopulation ermöglichen. Da Hepatozyten an der Metabolisierung von Xenobiotika beteiligt sind, werden sie für das Zellkulturmodell verwendet. Von den Hepatozyten werden in vivo Plasmaproteine synthetisiert, die bei in vitro Experimenten im Zellkulturmedium nachweisbar sind. Diese Proteine könnten anschließend als Biomarker in einem Lebendmonitoring (Blutproben) an Seehunden eingesetzt werden. Für das Zellkulturmodell wurden primäre Seehund-Hepatozyten mit Schadstoffen (PCB, PFOS) in umweltrelevanten Konzentrationen inkubiert. Als Kontrolle dienten Zellen, die nur mit dem jeweiligen Lösungsmittel inkubiert wurden (Isooctan für PCB; DMSO für PFOS). Da in der Literatur bisher keine Isolierung von Hepatozyten aus marinen Säugern beschrieben wurde, musste eine geeignete Isolierungsmethode etabliert werden. Die Methode musste die Isolierung vitaler Hepatozyten aus bereits verstorbenen Tieren in ausreichend hoher Menge ermöglichen. Es wurden verschiedene Isolierungsmethoden getestet von denen sich nur die Leberbiopsie Perfusion eignete. Sämtliche Parameter müssen mit den sich anschließenden Proteomanalysen kompatibel sein. Die Hepatozyten müssen ihre Vitalität nach der Isolierung und während der Kultivierung beibehalten. Zur Analyse der Vitalität wurden der XTT- und LDH-Test (allgemeiner Stoffwechsel und Membranintegrität) angewendet sowie die Harnstoffsynthese (leberspezifischer Stoffwechsel) beurteilt. Mit Hilfe der Zelltests wurde die Vitalität der Hepatozyten im Verlauf einer dreitägigen Kultivierung untersucht und der Einfluss einer Schadstoffinkubation auf die Zellvitalität analysiert. Die Schadstoffe sollen in den eingesetzten Konzentrationen keinen Einfluss auf die Zellvitalität oder Morphologie haben. Die Ergebnisse aus den Vitalitätstests zeigten, dass die verwendeten PCB-Konzentrationen keinen signifikanten Einfluss auf die Vitalität hatten. Eine Aussage zum Einfluss einer PFOSInkubation auf die Zellen (XTT- und Harnstoff-Test) konnte nicht gemacht werden, da die DMSO-Konzentration in den Proben zu hoch gewählt wurde. Die PFOSInkubation hatte keinen signifikanten Einfluss auf die Membranintegrität. Anhand erster Testreihen, die in unserer Arbeitsgruppe realisiert wurden, konnte die Funktionalität des Zellkulturmodells überprüft werden. Hierzu wurden Proteomanalysen von Seehund-Hepatozyten durchgeführt, die mit PCB inkubiert wurden. Erste Ergebnisse zeigten, dass es zu einer signifikanten Hochregulierung der Expressionslevel einiger Proteine kam, die am Schadstoffabbau beteiligt sind. In der vorliegenden Arbeit wurde erfolgreich ein Zellkulturmodell mit primären Seehund-Hepatozyten entwickelt, welches die Identifizierung neuer Biomarker für Seehunde ermöglicht.
Im Bereich der körperlichen Belastungsmessung lässt sich die Zusammenführung von einzelnen Eindrücken zu einem Gesamturteil überall beobachten. Trotzdem sind die ablaufenden Prozesse größtenteils ungeklärt und gerade die Gewichtung der Eindrücke ist kaum nachvollziehbar. In dieser Studie wurden 60 Probanden mithilfe eines Fahrradergometers 7,5 Minuten belastet. Jeder Proband absolvierte 3 Stufen über jeweils 2,5 Minuten mit 50, 75 und 100 Watt in unterschiedlicher Reihenfolge. Alle sechs möglichen Reihenfolgen wurden getestet. Zu jeder der Stufen wurde ein Beanspruchungsurteil erhoben. Zusätzlich wurde nach einem Gesamturteil gefragt. In den Einzelmessungen zeigen sich weder ein Positions- noch ein Carry-Over-Effekt. Trotzdem setzt die erste Beurteilung einen Anker, der sich durch die Beurteilung zieht. Die Gesamturteile der Gruppen unterscheiden sich nicht signifikant voneinander. Dafür lassen sich in der Gewichtung Tendenzen erkennen. Die höchste Stufe von 100 Watt sowie die letzte Stufe scheinen besonderes Gewicht zu bekommen, wobei der Effekt der 100 Watt-Beurteilung den Recency-Effekt überdeckt.
Nachhaltige Energieversorgung spielt eine wichtige Rolle für den Klimaschutz. Dabei gehört die Steigerung der Energieeffizienz zu den zentralen Elementen einer Energiewende. Die vorliegende Fallstudie beschäftigt sich intensiv mit einem in der Policy Analyse bisher vernachlässigten Politikfeld: der Energieeffizienzpolitik. In Deutschland wird viel Energie dazu gebraucht, um Gebäude zu heizen. Hier existieren große wirtschaftliche Effizienzpotentiale. Die EU sieht darin eine „Schlüsselrolle“ und fordert von ihren Mitgliedstaaten mit der Richtlinie 2002/91/EG Rahmenbedingungen für energieeffizientere Gebäude. Mit Ansätzen der EU-Implementationsforschung und der Politikfeldanalyse untersucht die Arbeit den Implementationsprozess dieser Richtlinie zwischen 2003 und 2010 in Deutschland und beschreibt die formale und praktische Effektivität des Ergebnisses mithilfe neu entwickelter kontextspezifischer Kriterien. Eine detaillierte Prozess-Analyse identifiziert relevante Faktoren, die das politische Ergebnis beeinflusst haben. Formal hat Deutschland die EU-Gebäude-Richtlinie größtenteils implementiert. Doch einige Anforderungen sind verspätet oder unbefriedigend praktisch implementiert worden. Eine wichtige Ursache der Verzögerung waren inhaltliche Differenzen zwischen den politischen Ressorts. An der öffentlichen Debatte beteiligten sich starke Befürworter beider Seiten, die den Prozess zusätzlich beeinflussten. Für den Vollzug der Energieeinsparverordnung (EnEV) sind die Bundesländer zuständig; ihre Kontrolle der energetischen Mindeststandards bei Bestandsgebäuden ist jedoch nicht befriedigend. Es gibt kaum Daten zu der Frage, ob neu gebaute oder sanierte Gebäude den gesetzlichen Anforderungen entsprechen. Ursachen für den mangelhaften Vollzug liegen im Zielkonflikt zwischen ambitionierter Klimaschutzpolitik auf der einen und Bürokratieabbau auf der anderen Seite. Hier war der Bundesrat, der behördliche Stichproben ablehnte, entscheidender Akteur. Die Verzögerungen und die ineffektive praktische Implementation der Richtlinie in Deutschland waren Resultat politischer Auseinandersetzungen. Es gab also keine institutionellen oder administrativen Probleme bei der Implementation im engeren Sinne, wie sie Implementationsdefizite in anderen Fällen erklären. Abschließend werden konkrete Handlungsempfehlungen entwickelt, wie die Bundesregierung eine effektive Implementation der EU-Gebäude-Richtlinie gewährleisten (u.a. bessere formale Implementation des Energieausweises und der Heizungsinspektion sowie effektivere Durchsetzung der EnEV durch Stichprobenkontrollen) und erfolgreich gegen Widerstände von Interessengruppen durchsetzen kann (z.B. indem sie Pro-Effizienz-Interessenkoalitionen stärkt und neben dem Ordnungsrecht auch begleitende Instrumente weiterentwickelt, beispielsweise finanzielle Anreize sowie Information und Beratung, auch um mit dem gängigen Missverständnis aufzuräumen, die EnEV sei freiwillig).
Ziel der Arbeit ist es aufzuzeigen, inwiefern die untersuchten Lernfelder des SEKEM-Bildungsprogramms, die sich an kulturellen Symbolen, künstlerischen Methoden und praxisbezogenem Lernen orientieren, geeignet sind, nachhaltige Entwicklungsprozesse anzuregen und zu den Erfolgen der Initiative beizutragen. Im Hinblick auf diese Lernfelder stellt das Bildungsprogramm ein Alleinstellungsmerkmal der ägyptischen SEKEM-Initiative dar, das deren Entwicklung seit mehr als 35 Jahren entscheidend geprägt hat. Untersucht werden in der Arbeit das Kreisritual, die Betriebseurythmie, das Prinzip „arbeitend lernen und lernend arbeiten“. Diese drei überwiegend nicht-formalen Elemente des SEKEM-Bildungsprogramms erfordern keinerlei persönliche Vorbildung. Das ist insofern von Bedeutung, als die SEKEM-Mitarbeiter bei Aufnahme ihrer Tätigkeit in SEKEM mental stark geprägt sind von den traditionellen Strukturen der ländlichen Umgebung, aus der sie kommen, und zum großen Teil über keine Berufsausbildung verfügen. Mit dem überwiegend nicht-formalen Bildungsprogramm können die SEKEM-Mitarbeiter also direkt „da abgeholt werden, wo sie sich befinden“. Durch die von diesen Lernfeldern ausgehenden Impulse erhalten die Mitarbeiter der SEKEM-Unternehmen die Chance, ihr Wahrnehmungsvermögen zu schulen, ihre kommunikativen Fähigkeiten zu verbessern, neue Sichten auszubilden und eine erhöhte Sensibilität und Aufmerksamkeit zu entwickeln. Diese Impulse korrespondieren mit dem Anliegen des SEKEM-Gründers Ibrahim Abouleish, Entwicklungsprozesse in einem nachhaltigen Sinne zu fördern – bezogen auf die Entwicklung der in der Initiative tätigen Menschen, ihre Gemeinschaft und ihre Umwelt. Angesichts der vielen Krisen und Herausforderungen unserer Zeit wie Klimawandel, Hunger, Wasserknappheit etc. sind derartige ganzheitliche Impulse von großer Bedeutung. Denn in der Regel haben diese Krisen damit zu tun, dass die Entwicklung einzelner Systeme und Subsysteme auf Kosten der Entwicklung anderer Systeme und Subsysteme erfolgt ist. Dies erklärt sich nicht allein aus verantwortungslosem Handeln, sondern auch aus der Besonderheit, dass Systeme und Subsysteme von jeweils eigenen Funktionsgesetzen bestimmt werden und damit zunehmend von einer einheitlichen Ganzheit abgekoppelt sind. Hinzu kommt, dass ja gerade Spezialisierung und Begrenzung der Teilsysteme zu der allseits gewünschten und auch erreichten hohen Effizienz, Flexibilität und Produktivität geführt haben, so dass über lange Zeit kein Bedürfnis bestand, deren Voraussetzungen zu hinterfragen. Eine der Idee der Nachhaltigkeit verpflichtet Bildung muss jedoch ihr Möglichstes dazu beitragen, dass selektive Wahrnehmungen vermieden und Einseitigkeiten überwunden werden können. Ihre Aufgabe besteht vor allem darin, solche Kompetenzen zu fördern, durch die Menschen befähigt werden, sich an der Gestaltung von Gegenwart und Zukunft verantwortungsvoll beteiligen zu können. Hierzu gehört insbesondere, dass integrative Fähigkeiten und die Entwicklung eines komplexeren Selbst- und Weltverhältnisses gefördert werden. So kann der Verselbständigung von Teilinteressen entgegengewirkt und die Herstellung eines Gleichgewichts zwischen den gesellschaftlichen Teilsystemen begünstigt werden. Damit all dies gelingen kann, kommt es maßgeblich darauf an, dass dieser Veränderungs- und Entwicklungsprozess auch eine Transformation von Denken, Fühlen und Wollen der Akteure – also ein „Sustainable Development des Menschen“ – umfasst. Das SEKEM-Bildungsprogramm widmet sich auf regionaler Ebene – aber mit internationaler Ausstrahlung – seit mehr als 30 Jahren dieser Aufgabe. Anliegen der Arbeit ist es nicht, einen Zusammenhang zwischen Bildung für nachhaltige Entwicklung (BNE) und nachhaltiger Entwicklung empirisch nachzuweisen. Dieser Weg kam bereits deshalb nicht in Betracht, weil die insofern zu befragenden Ägypter zumeist über keine englischen Sprachkenntnisse verfügen und die Verfasserin keinen Zugang zur arabischen Sprache hat. Stattdessen werden in der Arbeit die von dem überwiegend nicht-formalen Bereich des Bildungsprogramms ausgehenden positiven Wirkungs- bzw. Bildungsimpulse - wie sie in Selbstbeschreibungen der Teilnehmer zum Ausdruck kommen - unter Anwendung einer Methode, die von dem chilenischen Biologen und Neurowissenschaftler Humberto Maturana entwickelt worden ist, untersucht und erklärt. Das Resultat der Untersuchung kann wie folgt zusammengefasst werden: Im regelmäßigen Umgang mit den untersuchten Angeboten des SEKEM-Bildungsprogramms erhalten die Beteiligten bzw. deren Psychische Systeme die Chance, eigene Begrenztheiten zu überwinden und ein neues Selbst- und Weltverhältnis zu entwickeln und können in diesem Sinn zu nachhaltigen Entwicklungen in Sekem beitragen. Das im Umgang mit dem Bildungsprogramm ggf. Erlernte kann aufgrund ähnlicher Strukturen und Situationen auf die Arbeitswelt transferiert und hier angewandt werden. Es wäre zu begrüßen, wenn sich an die vorliegende Untersuchung des SEKEM-Bildungsprogramms weiterführende Untersuchungen anschließen könnten. Aus den erwähnten Gründen kann dies jedoch nicht Gegenstand der vorliegenden Arbeit sein.
Die Abhandlung gibt einen ersten Überblick über Entstehung, theoretische Hintergründe und Auswirkungen der finanziellen Bürgerbeteiligung im Rahmen der New Public Governance (NPG) in den deutschen Kommunen. Grundsätzlich kann festgestellt werden, dass die Kommunen in Zukunft vor großen sozialen, ökonomischen und ökologischen Herausforderungen stehen, die für ihre nachhaltige Entwicklung von entscheidender Bedeutung sind. Insbesondere der enge finanzielle Handlungsspielraum vieler Städte und Gemeinden in Kombination mit den Auswirkungen der demographischen Entwicklung und Urbanisierungsprozessen in einzelnen Regionen in Deutschland, bedingt neue Konzepte und innovative Herangehensweisen für die öffentliche Aufgabenerfüllung. Ein Bestandteil dieser neuen Form der Aufgabenerfüllung stellen finanzielle Bürgerbeteiligungsmodelle dar. Diese Modelle vereinen öffentliche, For-Profit- und Non-Profit-Elemente in ihren Strukturen und werden in dem Beitrag näher erläutert. Abschließend wird auf das besondere Verhältnis der Sparkassen und Kreditgenossenschaften in Verbindung mit den finanziellen Bürgerbeteiligungen eingegangen.
Die Verringerung des Material- und Ressourcenverbrauchs ist eine wesentliche Herausforderung nachhaltiger Entwicklung. Bislang standen und stehen politische Maßnahmen zur Energieeffizienz im Vordergrund. Maßnahmen zur Verbesserung der Materialeffizienz gewinnen jedoch verstärkt an Bedeutung. Der Erfolg oder Misserfolg politischer Instrumente im Umwelt- und Klimaschutzbereich wird maßgeblich davon abhängen, ob die Instrumente die Fähigkeit besitzen, eine Entkoppelung von Lebensqualität und Ressourcenverbrauch zu erzeugen. Insbesondere im Rahmen der Ökodesign-Richtlinie, aber auch anderer Instrumente der Europäischen Union, sind Ansatzpunkte zur politischen Gestaltung einer ressourcenleichten Langfristökonomie angelegt. Die Dissertation wird schwerpunktmäßig die Governance-Instrumente im Produktbereich der Europäischen Union behandeln. Die Dissertation folgt der Theorie, dass die Produkte der Industriegesellschaft einzeln mehr oder weniger harmlos, in ihrer Menge jedoch die Quelle fast aller Umweltprobleme sind. Zur Erstellung der Dissertation sieht das spezifische Methodendesign die Anwendung eines Kriterienkatalogs zur Bewertung der Steuerungsinstrumente für Langfristökonomie im Produktbereich vor. Darüber hinaus werden die Hauptakteure in Form von Interviews befragt.
Die Arbeit kombiniert innovative Geschäftsmodelle und Effectuation im Kontext von Entrepreneurship vor dem Hintergrund der Resource-based Theory. Im Rahmenbeitrag werden wesentliche Begriffe erarbeitet und die Arbeit eingeordnet. Dabei wird erstmals die Relevanz der Geschäftsmodell-Entwicklung und der Effectuation mithilfe der Resourcebased Theory erklärt. Im Beitrag 1 werden die angesprochenen Konzepte in einer explorativen Studie mit erfahrenen Entrepreneuren aus dem deutschen Gesundheitswesen thematisiert und die Existenz von Effectuation-Strukturen bei der Geschäftsmodell- Entwicklung getestet. Dabei werden unternehmerische Pilotprojekte als neue Strukturen entdeckt und konzeptualisiert. In Beitrag 2 werden die gewonnen Erkenntnisse in zwei Tools zur Geschäftsmodell-Entwicklung übersetzt und in Beitrag 3 im Rahmen einer case study am Beispiel eines Gründungsprojektes angewendet sowie um eine Struktur zur Bewertung von innovativen Geschäftsmodellen ergänzt.
Fragestellung und Kontext: Inwieweit lässt Strafe im Rahmen einer pädagogischen Intervention in der öffentlichen Erziehung heute erziehungswissenschaftlich und rechtlich Legitimieren? Im Verlauf der 70er und 90er-Jahre verschwand der Begriff ´Strafe´ weitgehend aus der erziehungswissenschaftlichen Diskussion. Rückblickend lässt sich nachvollziehen, dass u.a. Impulse aus der ´Stigmatisierungsdebatte´ wie auch die Erkenntnisse, die unter dem Stichwort ´Schwarze Pädagogik´ Eingang in die Debatte fanden. Parallel etablierten sich engagierte Initiativen, antiautoritär mit Kindern umzugehen, gar, ´antipädagogisch´ ganz auf Erziehung zu verzichten. Formeln wie ´Therapie statt Strafe´ initiierten bis in das Strafrecht hinein den Willen, Begriff und Praxis des Strafens zu überwinden. Der bisherigen Debatte, im historischen Zusammenhang sind zwei Aspekte bemerkenswert: Erstens: Das, was objektiv als Strafe gewollt war oder subjektiv so empfunden wurde, hat nicht aufgehört zu existieren. Das heißt: Auch wenn der Begriff Strafe (Sanktion, Konsequenz, sachlogische Folge) tabuisiert und aus dem Fachvokabular gestrichen wurde, wird im Erziehungsalltag weiterhin gestraft, wie die Studie von Günder, Reidegeld, Müller-Schlotmann (2009), treffend nachweisen. Zweitens: Es hat bisher keine systematische Auseinandersetzung in den Erziehungswissenschaften mit dem Phänomen ´Strafe´ gegeben. Erst im Jahr 2013 (ZJJ Heft 3/2013 und 01/2014) gab es einen Versuch aus aktueller Perspektive ´Erziehung´ und ´Strafen´ mehrperspektivisch zu diskutieren. In diese Lücke (Theorie und Handlungslogik) stößt die vorliegende Untersuchung. Auf der Grundlage eines historischen Überblicks wird ein Ansatz entwickelt, mit der Intention und der Fragestellung, wie das Strafproblem in der Erziehung, zumal der öffentlichen, fachlich beantwortet (gelöst) werden könnte. In der interdisziplinär angelegten Untersuchung, ausgehend von der Beobachtung, das Strafe ein fester Bestandteil der Erziehung sei. Dieser Logik selbstverständlichen, ja fraglosen Verhaltens wird in der vorliegenden Erörterung nachgegangen. Zu klären ist die Bedeutung sowie der Einfluss der ´Alltagstheorien´ auf mögliche punitive Tendenzen im Erziehungsalltag, welche durch die oben erwähnte Studie aus dem 2009 zweifelsfrei begründet werden. Diesen Ergebnissen soll mit Hilfe wissenschaftlicher Theorien entgegengetreten werden. Aus dem dafür in Betracht kommenden Bezugswissen nimmt die Erziehungswissenschaft und Psychologie einen zentralen Stellenwert ein. Des Weiteren wird die Bedeutung des Rechts: Grundgesetz, Familienrecht sowie das SGB VIII betont. Zu klären ist, welche Sanktionen noch vom gegenwärtigen Recht und dem Stand der Fachdiskussion in der Pädagogik gedeckt seien. Das aus dem gesellschaftspolitischem Erziehungsauftrag und den Hilfen zur Erziehung (§ 27 SGB VIII) ablesbar normative Erziehungsverständnis, sei durch einen hohen Anspruch an Funktionalität, Disziplin und soziale Anpassung geprägt. Die Handhabung des ´Strafproblems in der Pädagogik´ sei, trotz der Reformen in den 1980er und 1990er Jahren nach wie vor wesentlich von Alltagstheorien geprägt (Luedtke 2009). Design: Die vorliegende Erörterung ist eine interdisziplinär angelegte, literaturgestützte Untersuchung, die sich ausschließlich auf vorhandenes Wissen/Theorien bezieht.
Das Nationale Bildungspanel (NEPS) untersucht wie sich Kompetenzen, unter anderem die mathematische Kompetenz, über die Lebensspanne entwickeln, wie diese die Bildungskarriere beeinflussen und inwiefern die Kompetenzentwicklung von Lerngelegenheiten abhängig ist. Erhoben werden die Daten mit Hilfe eines Multi-Kohorten-Sequenz-Designs, wobei in allen Bildungsetappen verschiedene Instrumente zum Einsatz kommen (Blossfeld & von Maurice, 2011). Um diese Daten sinnvoll nutzen zu können, müssen sie valide Testwertinterpretationen zulassen. Diese Arbeit leistet einen Beitrag zur Validierung der National Educational Panel Study (NEPS)-Testwertinterpretationen, indem der Mathematiktest für die neunte Klassenstufe (K9) umfassend analysiert wurde. Dabei wurde geprüft, ob die Unterschiede in der beobachteten Testleistung die Unterschiede in der mathematischen Fähigkeit wiedergeben, wie diese im NEPS-Rahmenkonzept definiert sind. Für die Validierung wurde eine Argumentationskette für den NEPS-K9-Mathematiktest, angelehnt an den Argument Based Approach von Kane (2013), entwickelt. Für die Auswertung wurde der scientific use file der NEPS-Haupterhebung 2010 verwendet. Die Stichprobe dieser Studie bestand aus 15239 Schülerinnen und Schülern der neunten Jahrgangsstufe. Für die Untersuchung der Zusammenhänge des NEPS-Mathematiktests mit anderen Messungen mathematischer und nicht mathematischer Kompetenz wurde zusätzlich eine Validierungsstudie durchgeführt. Zur Erfassung der mathematischen und naturwissenschaftlichen Kompetenz wurden in dieser Studie neben den NEPS-Testinstrumenten Aufgaben aus dem Programme for International Student Assessment (PISA) und dem IQB-Ländervergleich (LV) eingesetzt. Zusätzlich wurde ein kognitiver Fähigkeitstest verwendet. Insgesamt wurden 80 Schulen mit 1965 Schülerinnen und Schülern der neunten Klassenstufe für die Teilnahme an der Studie ausgewählt. Zur Vorbereitung des Validitätsargumentes wurden Literaturreviews bereits veröffentlichter Analysen und ein Expertenreview zu den Merkmalen der NEPS-Mathematikaufgaben durchgeführt. Des Weiteren wurden die Kompetenzdaten mit Hilfe von Modellen der Item Response Theorie skaliert und dimensional analysiert. Außerdem wurden korrelative Zusammenhänge mit Kriterien mathematischer Kompetenz berechnet. Die Ergebnisse liefern viele Hinweise bezüglich der Validität der Testwertinterpretationen, jedoch wurden auch einige Einschränkungen und weiterer Forschungsbedarf aufgezeigt. Beispielsweise ließ sich die Annahme der Eindimensionalität des NEPS-Mathematiktests nicht bestätigen. Außerdem wären weitere Analysen bezüglich des Zusammenhanges mit geeigneten Kriterien für die Zieldomäne Mathematische Kompetenz für eine Erweiterung der Testwertinterpretationen wünschenswert. Die gefundenen Evidenzen stützen jedoch die Testwertinterpretation ´die Unterschiede in der Rangfolge der beobachteten Testleistung deuten auf Unterschiede in der Rangfolge der Ausprägung der mathematischen Kompetenz, wie diese im Rahmenkonzept definiert wird´. So konnten für die Zieldomäne relevante Teilkompetenzen in den NEPS-Aufgaben identifiziert werden, waren die Bewertungskriterien angemessen und wurden erwartungsgemäße Zusammenhänge mit den Mathematiktests aus dem LV und PISA gefunden. Auf diese Weise konnte eine vollständige Argumentationskette für den NEPS-K9-Mathematiktest entwickelt, sowie Empfehlungen für die Stärkung und Erweiterung der Testwertinterpretation empfohlen werden. Der Argument Based Approach von Kane erwies sich dabei als hilfreicher Ansatz, in welchem die Vorgaben der Standards for Educational and Psychological Testing (American Educational Research Association, American Psychological Association, National Council on Measurement in Education, 2014) berücksichtigt werden konnten.
Durch die fortschreitende Intensivierung der landwirtschaftlich genutzten Flächen in Deutschland wird im Rahmen der Ertragsteigerung oftmals ein erhöhter Einsatz von Düngemitteln und Pestiziden beobachtet. Da bislang nur wenige Abstandsauflagen zu Saumbiotopen bei der Zulassung von Substanzen festlegt wurden und darüber hinaus durch Abdrift, vor allem in Hauptwindrichtung von Agrarflächen, eine ungewollte Applikation ausgebrachter Fungizide auf Waldsäume (hier: Nichtzielfläche) anzunehmen ist, kann eine Gefährdung von Nichtzielorganismen nicht ausgeschlossen werden. Durch einen zulässigen Einsatz von Fungiziden im Forst und in Baumschulen werden Bestände auch unmittelbar mit Pestiziden exponiert. Im Rahmen dieser Arbeit wurde die Symbiose zwischen Bäumen als Nichtzielpflanzen und Ektomykorrhiza-Pilzen (ECM) als Nichtzielorganismen unter Fungizid- und Herbizid-Exposition untersucht. Als Modellsubstanzen wurden sowohl Pestizide mit einer Zulassung für Forstwirtschaft und Baumschulen wie auch mit Ackerbauzulassung gewählt. Die Anwendungsbereiche werden durch Konzentrationsniveaus (100% bzw. 10% der empfohlen Aufwandmenge, AM) abgebildet. Buchen, welche eine intakte Symbiose mit Ektomykorrhiza aufweisen, sind besser an ihre Umwelt angepasst und verfügen über Standortvorteile aufgrund einer effektiveren Nährstoff- und Wasseraufnahme. Diese Symbiose reagiert sensibel auf anthropogene Störungen wie Pestizidanwendungen. Die Substanzen können dabei sowohl über eine direkte Wirkung auf die Mykorrhiza-Pilze, wie auch über eine indirekt schädigende Wirkung auf die Wirtspflanze, die Symbiose beeinflussen. Ziel der Arbeit war es zu untersuchen, ob und welche Auswirkungen auf den Endpunkt Myzelwachstum von Ektomykorrhiza Pilzen durch eine Exposition zu beobachten sind. Zur Gefährdungsabschätzung wurden gemessene Pestizidkonzentrationen (MEC) in Gewächshausversuchen bestimmt; ECx Werte aus Konzentrations-Wirkungskurven ermittelt und die daraus resultierenden ökotoxikologischen Kenngrößen QR (Quotient Ratio) und TER (Toxic Exposure Ratio) berechnet. Dazu wurden zunächst in vitro Hemmversuche unter definierten Laborbedingungen durchgeführt. Als Endpunkt wurde das Myzelwachstum von Ektomykorrhiza-Pilzen definiert und entsprechende Kenngrößen wie EC10, EC50 und EC90 Werte für verschiedene Pestizid- ECM Modelle ermittelt. Als Modellorganismen wurden Pisolithus arhizus, Hebeloma crustuliniforme, Lyophyllum sp. und Cenococcum geophilum eingesetzt. Als Pestizide wurden die Wirkstoffe Quinoxyfen, Boscalid, Tebuconazol, Azoxystrobin sowie die Formulierungen Orius, Collis und Basta untersucht. Ergänzend dazu wurden Expositionsversuche im Gewächshaus durchgeführt und die Konzentrationen und Verteilungen der Wirkstoffe Tebuconazol und Boscalid in den Kompartimenten Boden1, Wurzelnaher Boden2 und Wurzel bestimmt. Hierzu wurde eine Methode zur Aufbereitung, Extraktion und Analyse mittels LC- MSMS in den verschiedenen Kompartimenten entwickelt. Ebenfalls wurde eine Methode zur Messung der Substanz Tebuconazol im Myzel von Pisolithus arhizus entwickelt. Aufgrund der Ergebnisse konnte gezeigt werden, dass die Toleranz der Mykobionten auf eine Exposition von dem untersuchten Testorganismus und dem eingesetzten Wirkstoff sowie dessen Konzentration abhängt. Hierbei wurde für den sensibelsten Testorganismus im Versuch, Pisolithus arhizus, ein EC50 Wert kleiner 0,026 ng g-1 für eine Exposition mit Orius ermittelt. Für eine Exposition von Pisolithus arhizus mit dem Herbizid Basta wurde ein EC50 Wert von 0,4% AM entsprechend 6 g ha -1 Glufosinat berechnet. in dem für die Symbiose relevanten Kompartiment Wurzelnaher Boden Wirkstoffkonzentrationen im Bereich von 100 - 500 ng g-1 für Boscalid und 150 - 700 ng g-1 für Tebuconazol bestimmbar sind. in dem Kompartiment Wurzel sowohl der Wirkstoff Tebuconazol wie auch Boscalid nachgewiesen werden konnte. im exponierten Myzel von Pisolithus arhizus der Wirkstoff Tebuconazol nachgewiesen werden konnte. Es wird somit von einer Bioverfügbarkeit der Substanz Tebuconazol ausgegangen. aufgrund der Datenlage und einer Berücksichtigung eines TER-Wertes < 5, für nahezu alle Kombinationen ein erhöhtes ökotoxikologisches Risiko anzunehmen ist. Einzig für eine Exposition mit 10% AM Boscalid auf den Testorganismus Cenococcum geophilum konnte ein TER > 9 ermittelt werden. Somit erscheinen weitere Untersuchungen bezüglich der Auswirkung von Pestiziden auf die Nichtzielorganismengruppe Ektomykorrhiza sinnvoll und notwendig. Für die Bewertung muss ein geeignetes Testsystem für Bodenmikroorganismen wie Mykorrhiza-Pilze standardisiert und validiert werden. Die entwickelte und angewendete Plattenmethode als Standardmesssystem erscheint dafür geeignet. Im Rahmen der Pestizidzulassungen müssen in Zukunft möglicherweise Mykorrhiza-Symbiosen bedacht werden und Schutzmaßnahmen wie Anwendungsbeschränkungen oder Abstandsregelungen zu Saumbiotopen überdacht werden.
In der vorliegenden kumulativen Dissertation geht es um das Selbstkonzept von Schülerinnen und Schülern im Kontext schulischer Inklusionsprozesse und aktueller gesellschaftlicher Entwicklungen. Für empirische Studien aus dem Bereich der Selbstkonzept- und Inklusionsforschung stellt die valide und zielgruppengerechte Messung des Selbstkonzepts eine wichtige Voraussetzung dar. In der ersten und dritten Studie wird daher die Entwicklung und Validierung eines deutschsprachigen Messinstruments zur Erfassung des Selbstkonzepts bei Jugendlichen der Sekundarstufe I (Studie I) und bei Grundschülern (Studie III) beschrieben. Es wurden Testanalysen auf der Datenbasis einer Stichprobe von N = 1 907 Schülerinnen und Schülern verschiedener Schulformen (n = 294 Förderschülerinnen und Schüler) und N = 416 Kindern der 4ten Klassenstufe durchgeführt. Konfirmatorische Faktorenanalysen bestätigten die postulierte achtfaktorielle Struktur. Die Messinvarianz über Geschlecht und Schulform konnte belegt werden. Zusammenhänge mit Außenkriterien wiesen auf eine zufriedenstellende Validität der Selbstkonzeptskalen hin. Die Reliabilitätsschätzungen fielen allgemein gut aus. In der zweiten Studie wurde empirisch überprüft, inwieweit sich multiple Selbstkonzeptfacetten von Schülerinnen und Schülern mit und ohne sonderpädagogischen Förderbedarf im Schwerpunkt Lernen (SPF-L) in Abhängigkeit von der Beschulungsart unterscheiden. Zusätzlich wurden das allgemeine und das schulische Wohlbefinden von Schülerinnen und Schülern mithilfe quantitativer und qualitativer Befragungen, im Sinne eines Mixed-Method-Ansatzes, erfasst. Inklusiv beschulte Schülerinnen und Schüler mit SPF-L wiesen ein deutlich schlechteres akademisches Selbstkonzept auf als die Jugendlichen an Förderschulen und die Schülerinnen und Schüler ohne SPF. Für das generelle Selbstwertgefühl, Aussehen und die sozialen Selbstkonzeptfacetten Eltern- und Mitschülerbeziehung zeigten sich keine Unterschiede. Jugendliche mit SPF-L hatten unabhängig von der Beschulungsform ein besseres Selbstkonzept der Lehrerbeziehung. In der vierten Studie wurde anhand einer Stichprobe von N = 2 950 Schülerinnen und Schülern verschiedener Schulformen untersucht, welche Facetten des Selbstkonzepts die wichtigsten Prädiktoren für ein positives generelles Selbstwertgefühl bei Jugendlichen darstellen und ob es Unterschiede hinsichtlich des Geschlechts und der Schulform gibt. Die Ergebnisse zeigten, dass das Selbstkonzept des Aussehens den wichtigsten Prädiktor für ein positives Selbstwertgefühl darstellt; insbesondere für Mädchen. Andere Selbstkonzeptfacetten spielen eine deutlich geringere Rolle.
Die Fragestellung dieses Forschungsvorhabens resultiert aus der Praxis: Was ist ein christliches Hotel? Wie konkretisieren sich die christlichen Wertehaltungen im betrieblichen Alltag eines Hotels in Deutschland? Gibt es in der betrieblichen Praxis Unterschiede zwischen christlichen und nicht christlichen Hotels aus Sicht der Mitarbeiter christlicher Hotels, und wenn ja, welche sind das? Können christliche Hotels ihre Werte im Personalmarketing als Anreize verwenden? Welche Anreize erwarten die Mitarbeiter christlicher Hotels grundsätzlich von ihren Arbeitgebern? Gibt es Unterschiede in den Bewertungen der Wichtigkeit der christlichen Ausrichtung christlicher Hotels je nach Glaubenszugehörigkeit (christlich, andere, ohne) der Mitarbeiter? Da die Anwendung bzw. Konkretion christlicher Werte im betrieblichen Kontext nicht vom kulturellen außerbetrieblichen Umfeld getrennt betrachtet werden kann, beziehen sich die vorliegenden Ausführungen allein auf christliche Hotels in Deutschland. Das Objekt „Christliches Hotel“ wurde bislang in der Forschungsliteratur noch nicht näher beschrieben. Um den Forschungsgegenstand "Christliches Hotel" zunächst näher zu beschreiben, wird das in der Qualitätsdiskussion bekannte EFQM Excellence Modell herangezogen und anhand des Werteinventars unternehmensrelevanter christlicher Werte auf die Hotellerie übertragen. Dieses entwickelte EFQM Excellence Modell - auch EFQM Excellence Modell Hotel "C" genannt - dient einer ersten Konkretion des Forschungsgegenstandes und bildet zum anderen die Basis für die empirische Studie. Hierfür wurden 276 Mitarbeiter christlicher Hotels befragt, wie sie die im Rahmen des EFQM Excellence Modell Hotel "C" konkretisierten Werte im Management ihres Arbeitgeberhotels wahrnehmen und im Vergleich zu nicht christlichen Hotels und zudem bezüglich der Wichtigkeit bewerten. Die Studienergebnisse zeigen, dass die befragten Mitarbeiter christliche Hotels in den EFQM Konstrukten Führung, Strategie, Mitarbeiter und Prozesse, Produkte und Dienstleistungen sowie in den kulturbezogenen Konstrukten Christliche Werte und Ergänzende christliche Werte im Vergleich zu nicht christlichen Hotels als signifikant besser bewerten. Christliche Werte, sofern sie nicht explizit als solche bezeichnet werden, sind den Mitarbeitern christlicher Hotels in Deutschland unabhängig von ihrer Glaubenszugehörigkeit gleich wichtig. Christlich gläubigen Mitarbeitern christlicher Hotels in Deutschland ist - explizit gefragt - die christliche Ausrichtung ihres Arbeitgebers signifikant wichtiger als Mitarbeitern ohne Glaubenszugehörigkeit. Christliche Werte spielen für die Mitarbeiter christlicher Hotels in Deutschland zusammenfassend eine wichtige Rolle. Diese immateriellen Werte sind starke Beitrags- und Bleibeanreize, die christliche Hotels im Personalmarketing verwenden können. Dies gilt umso mehr, wenn die christlichen Werte von den christlichen Hotels in Deutschland nicht nur explizit als solche zusammenfassend genannt, sondern konkret und vor allem realitätsgetreu dargestellt werden.
Körperliche Aktivität birgt hohe gesundheitliche Gewinne, wenn sie regelmäßig und dauerhaft praktiziert wird. Bestimmend für Verhaltensqualität und -prognose sind befriedigte implizite Motive. Stimmen sie mit den expliziten Zielen der Person überein, entsteht Wohlbefinden und Motivation. Welche psychogenen Motivprofile bei Personen im Präventionssport dominieren, ist unbekannt und wurde hier qualitativ untersucht. Mittels semiprojektiven Foto-Elicitation Interviews, speziell der Zaltman Metaphor Elicitation Technique, wurden acht Probanden qualitativ zu expliziten Zielen und impliziten Motiven ihrer körperlicher Aktivität im Präventionssetting befragt. Ihr Involvementniveau zu aktivem Gesundheitshandeln wurde zuvor standardisiert erhoben. Ausgewertet wurde durch induktive Inhaltsanalyse nach Mayring sowie bildmetaphorisch nach Lakoff und Johnson, ein motivationales Netzwerk kartiert und die Ergebnisse kommunikativ validiert. Die Analyse ergab fünf explizite Handlungsgründe für gesundheitsförderliche körperliche Aktivität, die teils bekannte Ziele des Freizeitsports bestätigen, teils neue Aspekte aufdecken. Insbesondere das explizite Ziel Regeneration und seine Affektqualität scheinen die Motivation zu verstärken. Die erhobenen hohen Ausprägungen des impliziten Leistungs- und Autonomiemotivs waren mit positiven Affekten und Wohlbefinden assoziiert. Anschluss- und Machtmotive blieben unauffällig. Wesentliche Genderunterschiede zeigten sich bei keinem der Partialergebnisse.
In der Wasser- und Abwasseruntersuchung hat der Summenparameter eine heraus-ragende Bedeutung. Sowohl in der gesetzlichen Überwachung als auch der Bemes-sung von Abwasserbehandlungsanlagen werden Belastungen vielfach über die Zu-sammenfassung von Einzelstoffen in Stoffgruppen ausgedrückt. Stoffgruppen lassen sich mit Hilfe von Summenparametern zuverlässig und im Vergleich zu Einzelstoffen mit geringerem Aufwand bestimmen. Im Rahmen dieser Arbeit werden die Verfahrens-grundlagen der Summenparameter und ihre Verwendung in der Wasser- und Abwas-seruntersuchung erläutert. Ein bedeutender wie auch umstrittener Summenparameter ist der AOX - Adsorbier-bare organisch gebundene Halogene (AOX). Bedeutend ist er deshalb, weil er ein ord-nungs- und abgaberechtlich relevanter Abwasserparameter ist. Umstritten ist er unter anderem, weil er ursprünglich für andere Zwecke als die Abwasseruntersuchung ent-wickelt wurde. Seinerzeit war der AOX ein Überwachungsparameter für Trinkwasser. Als Abwasserparameter dient er zur Erfassung einer im Abwasser unerwünschten Stoffgruppe, der besorgnisauslösende Eigenschaften wie Persistenz, Bioakkumulier-barkeit und Toxizität (PBT-Eigenschaften) zugeschrieben wird. Im zweiten Teil der Ar-beit wurden exemplarisch am Parameter AOX die Zusammenhänge zwischen Stoff-parametern und besorgnisauslösenden Eigenschaften bzw. Wirkungen der ausge-wählten parameterausmachenden Substanzen untersucht. Die Untersuchungsergeb-nisse wurden vor allem in Zusammenhang mit der Ermittlung und Verankerung von Mindestanforderungen für das Einleiten von Abwasser bewertet.
In der Dissertation werden Bildwissenschaft und Didaktik miteinander zu verknüpft. So eine Kunstvermittlung mit einer Ausrichtung an Bilderfragen und Bildgebrauch entworfen, wobei eine Orientierung an vorhandenen Didaktiken erfolgt. Außerdem wird Methodik und ein Modell zur der Bildinterpretation entwickelt, die Handlungs- und Subjektorientierung einbeziehen. In dem ersten Teil der Arbeit steht vor allem die bildwissenschaftliche Grundlage im Vordergrund. So wird in diesem Teil die Veränderung des Bildbegriffs und Bildverständnisses reflektiert und thematisiert. Ein breiter Bildbegriff (unterschiedliche Formen, Funktionen und Zuschreibungen inbegriffen), der Bereich der Zuschreibung und die Rolle des Betrachters stehen im Fokus. In dieser Auseinandersetzung mit der Thematik ergibt sich vor allem der Bildgebrauch als ein neuer Weg der Bilderfassung. Außerdem ist die Rolle des Betrachters von Bildern nicht mehr nur eine rezipierende, sondern auch die des Umgangs und des Gebrauchs von Bildern Zusätzlich erfolgt die Verknüpfung der gewonnen Erkenntnisse im Bereich der Kunstpädagogik. Hierzu werden allgemeine und Kunstdidaktiken untersucht und speziell auf die Bereiche Bildverstehen und Handlungsorientierung bezogen. Aus aktuellen Tendenzen der Kunstpädagogik werden die Fokussierung der Wahrnehmung sowie eine Einbeziehung technologischer und nicht-technologischer Wahrnehmungsräume abgeleitet. Theorien zu Potentialen von Bildern ergänzen dies und führen Bildwissenschaft und Didaktik zusammen. Durch Subjektorientierung wird letztlich eine Zuspitzung auf die Notwendigkeit einer Handlungsorientierung und des Bildgebrauchs vorgenommen. Im Modell zur Bildvermittlung werden die fachlichen und didaktischen Erkenntnisse eingebracht. Perzeptbildung, Kontexte (mit Berücksichtigung von Konzept und Allocation) sowie der übergreifende Schritt der Bildhandlungen werden generiert. Abgestimmt auf den Betrachter und das Bild werden die Schritte mit Methoden angereichert. In einem exemplarischen Schulversuch wird dieses Modell umgesetzt und reflektiert.
Biozide Wirkstoffe sind Chemikalien, die zum Schutz der menschlichen oder tierischen Gesundheit oder zum Schutz von Materialien vor Schädlingen eingesetzt werden. Monitoringergebnisse lassen vermuten, dass diese Wirkstoffe auch häufig im Innenraum von Haushalten eingesetzt werden und von dort vor allem über Abwasserleitungen und Kläranlagen in die Umwelt gelangen, wenn sie in Kläranlagen nicht eliminiert werden. Die Produkte, aus denen die Wirkstoffe aus Haushalten in das Abwasser gelangen, sind bislang jedoch nicht identifiziert worden. Aus diesem Grund konnten die daraus resultierenden Umweltbelastungen nicht eingeschätzt und keine entsprechenden Emissionsminderungsmaßnahmen umgesetzt werden. In dieser Arbeit wurde deshalb untersucht, in welchen Haushaltsprodukten biozide Wirkstoffe eingesetzt werden und in das Abwasser gelangen. Zudem sollte erforscht werden, was die Haushaltsmitglieder über Biozidprodukte wissen und wie sie mit ihnen umgehen. Ziel war es, die Anwendungen von bioziden Wirkstoffen in Haushalten zu identifizieren, von denen die höchsten Umweltbelastungen zu erwarten sind, und geeignete Emissionsminderungsmaßnahmen abzuleiten. Um die Anwendung biozider Wirkstoffe in Haushalten zu untersuchen, wurde zunächst durch eine Befragung in Haushalten eines dörflichen Wohngebietes ermittelt, was die Haushaltsmitglieder über Biozidprodukte wissen und wie sie die damit verbundenen Risiken im Vergleich zu anderen Haushaltsprodukten einschätzen. Zudem wurde für jeden der teilnehmenden Haushalte ein Inventar der vorhandenen Produkte erstellt. Dabei wurden neben den Biozidprodukten auch Wasch- und Reinigungsmittel und Körperpflegeprodukte untersucht. Ähnliche Erhebungen fanden zusätzlich in Haushalten in urbanen Gebieten statt. Die aufgrund der inventarisierten Produkte zu erwartenden Stoffe wurden im Laufe eines Jahres durch ein speziell abgestimmtes Monitoringprogramm im Abwasser des dörflichen Wohngebietes in Tages- und Stundenmischproben untersucht. Alle Proben wurden nach der Probenahme aufgearbeitet und mittels Flüssigchromatographie gekoppelt mit einem Triple-Quad-Massenspektrometer analysiert. Dabei wurden die Konzentrationen von 14 Wirkstoffen gemessen: 1,2-Benzisothiazol-3(2H)-on (BIT), C12-Benzalkoniumchlorid, Carbendazim, 5-Chlor-2-methyl-2H-isothiazol-3-on (CMIT), Dichloroctylisothiazolinon (DCOIT), N,NDiethyl-meta-toluamid (DEET), Diuron, Icaridin, 2-Octyl-2H-isothiazol-3-on (OIT), Piperonylbutoxid (PBO), Triclosan, Tebuconazol, Terbutryn und Tetramethrin. Vielen Befragten war nicht bewusst, dass sie Biozidprodukte nutzen. Der Begriff "Biozid" war oft nicht bekannt und wurde inhaltlich häufig falsch verstanden. Die Auswertungen der inventarisierten Produkte und der darin enthaltenen bioziden Wirkstoffe zeigten, dass ein Großteil der Wirkstoffe nicht aus Biozidprodukten in das Abwasser gelangt, sondern aus Körperpflegeprodukten und Wasch- und Reinigungsmitteln. Insgesamt 64 % der Anwendungen von bioziden Wirkstoffen in den inventarisierten Produkten wurden nicht unter der Umweltrisikobewertung der Verordnung (EU) 528/2012 über die Bereitstellung auf dem Markt und die Verwendung von Biozidprodukten berücksichtigt, was zu einer erheblichen Unterschätzung der Umweltrisiken führt. Die Ergebnisse der Abwasseruntersuchungen deuten ebenfalls darauf hin, dass biozide Wirkstoffe aus Wasch- und Reinigungsmitteln, Körperpflegeprodukten und Biozidprodukten gleichermaßen in das Abwasser eingetragen werden. Die Messergebnisse können gut mit den Produktinventaren in Verbindung gebracht werden. Einige Wirkstoffe scheinen maßgeblich durch Biozidprodukte eingetragen zu werden. Auch Konservierungsmittel wurden regelmäßig nachgewiesen. Für Triclosan hingegen ist gemäß den Inventaren Zahnpasta vermutlich die Produktgruppe, die in dem untersuchten Wohngebiet maßgeblich für den Eintrag ins Abwasser verantwortlich ist. Diese Arbeit zeigt zum ersten Mal, welche Produkte im Haushalt eine wichtige Quelle für biozide Wirkstoffe im Abwasser sind. Sie müssen mit einbezogen werden, wenn Emissionen an der Quelle reduziert werden sollen. Es sollten Maßnahmen ergriffen werden, die über die Produktzulassung von Biozidprodukten hinausgehen, um die Emissionen so gering wie möglich zu halten. Diese Maßnahmen sollten sich nicht darauf beschränken, die Bevölkerung über Biozidprodukte aufzuklären und zu sensibilisieren. Stattdessen sollten Maßnahmen früher in der Wertschöpfungskette ansetzen, wie zum Beispiel beim Design der Wirkstoffe oder der Formulierung der Produkte, um so Einträge biozider Wirkstoffe in die Umwelt zu verringern.
Unter Wirkungsbezogener Analytik (WBA) wird die Kopplung eines chromatographischen Trennverfahrens mit einem biologischen Testsystem verstanden. Der Vorteil bei dieser Herangehensweise ist, dass die zuvor getrennten Probeninhaltsstoffe anhand ihrer Aktivität mit einem in vitro-Testsystem detektiert werden. Es hat sich gezeigt, dass die Hochleistungsdünnschichtchromatographie (HPTLC) besonders geeignet für die WBA ist. Bislang konnte nicht gezeigt werden, dass die WBA mit HPTLC auch als routinefähige Methode eingesetzt wurde. In dieser Arbeit erfolgte eine Optimierung der Detektion der Endpunkte Biolumineszenzhemmung (Aliivibrio fischeri), antibiotische Wirkung (Bacillus subtilis), Neurotoxizität (Acetylcholinesterase) von der HPTLC-Platte hinsichtlich Routinefähigkeit. Zusätzlich konnte in ersten Versuchen gezeigt werden, dass es möglich ist, direkt gentoxische Verbindungen mittels des umu-Tests auf der HPTLC-Platte nachzuweisen. Für die einzelnen Biotests sind unterschiedliche Inkubationszeiten notwendig. Dies führt aufgrund von Diffusion auf der HPTLC-Platte zu einer Bandenverbreiterung. Es wurden unterschiedliche Methoden und Arbeitsweisen zur Verminderung der Diffusion erprobt und optimiert. Eine Möglichkeit ist die mechanische Eindämmung durch die Einbringung einer Gaze in eine verfestigte Calciumalginatschicht. Optimiert wurde dieses Verfahren am Bacillus subtilis-Hemmtest. Für Enzymtests ist eine vergleichsweise kurze Inkubationszeit notwendig. Daher tritt hier eine geringere Bandenverbreiterung auf, womit eine mechanische Einschränkung der Diffusion nicht geeignet ist. Um die auftretende Bandenverbreiterung möglichst gering zu halten, wurde besonders die Aufbringung des Substrats optimiert. Dies geschah am Beispiel des HPTLC-Acetylcholinesterasehemmtests. Die Ermittlung der unterschiedlichen bandenverbreiternden Einflussfaktoren erfolgte mittels statistisches Versuchsplanung. Anhand der gewonnenen Erkenntnisse konnte die Methode soweit optimiert werden, dass die bei der Detektion von AChE-Inhibitoren auftretende Bandenverbreiterung sehr gering gehalten werden kann. Aufgrund der hohen Empfindlichkeit des Verfahrens lassen sich selbst geringe Spuren von Verunreinigungen in Referenzsubstanzen detektieren. Besonders für den Routineeinsatz der WBA mit der HPTLC ist die Vergleichbarkeit der Ergebnisse erforderlich. Dazu wurde anhand des HPTLC-Leuchtbakterienhemmtests mit Aliivibrio fischeri eine Auswertestrategie erarbeitet. Die Ermittlung der Biolumineszenzhemmung findet analog zum Küvettentest statt und kann ortsaufgelöst als Hemmwert-Chromatogramm dargestellt werden. Die Darstellung der Hemmung in einem Hemmwert-Chromatogramm gleicht die Stauchung der Peaks aufgrund des sigmoiden Verlaufs der Dosis-Wirkungsbeziehung teilweise aus. Durch die nichtlineare Beziehung zwischen Konzentration bzw. Flächenmasse und Wirkung der unbekannten Substanzen ist es für den Vergleich von Proben notwendig, einen Bezugspunkt zu setzen. Bewährt hat sich dafür der EC50-Wert. Da aber in den meisten Fällen die Konzentration unbekannt ist, wird als Bezugspunkt das Auftragevolumen gewählt, welches erforderlich ist um eine Hemmung von 50% auszulösen. Der Kehrwert des berechneten Auftragevolumens für 50% Hemmung stellt das reziproke Iso-Hemmvolumen (RIHV) dar. Dieser RIHV-Wert hat sich für den Probenvergleich in verschiedenen Anwendungen bewährt. Das Prinzip der Auswertung kann vom HPTLC-Leuchtbakterientest mit Anpassung auf den HPTLC-Bacillus subtilis-Hemmtest übertragen werden. Für den Vergleich der Wirkung auf die Acetylcholinesterase-Hemmung wird in Anlehnung zum RIHV, das reziproke Iso-Aktivitätsvolumen (RIAV) herangezogen. Hier wird das Auftragevolumen, welches notwendig ist, eine Aktivität der AChE von 50% zu erreichen, als Kehrwert angegeben. Zur Ermittlung der Messunsicherheit der Chromatographie und der detektierten Wirkung wurden parallel zu den Proben Referenzverbindungen untersucht. Bei der Überwachung einer gesicherten Deponie über einen Zeitraum von 4,5 Jahren konnte gezeigt werden, dass es sich bei der Hochleistungsdünnschichtchromatographie mittels automatisierter Mehrfachentwicklung (HPTLC/AMD) um ein reproduzierbares Chromatographiesystem handelt. Bei der Anwendung des Leuchtbakterien-, Bacillus subtilis- und des Acetylcholinesterase-Hemmtests auf verschiedene Deponie- und Abwasserproben wurden über einen Zeitraum von sieben Monaten Standardabweichungen von 5-9% Hemmung für die testspezifischen Referenzsubstanzen ermittelt. Als Ergebnis der Validierung wurden der HPTLC-Aliivibrio fischeri-, der HPTLC-Bacillus subtilis- und der HPTLC-Acetylcholinesterase- Hemmtest am 24.03.2015 von der deutschen Akkreditierungsstelle (DAkkS) akkreditiert. Zur Ermittlung potenziell gentoxischer Substanzen wurde der umu-Test ausgewählt. Mit dem umu-Test auf der HPTLC-Platte ist es derzeit möglich, die aus der DIN 38415-3 bekannte direkt wirkende gentoxische Substanz 4-Nitroquinolin-N-oxid (4-NQO) auf der HPTLC-Platte nachzuweisen. Für einen erfolgreichen Nachweis von indirekt wirkenden Substanzen, die erst nach der Aktivierung durch Stoffwechselenzyme gentoxisch wirken, war es nicht möglich, das erforderliche Metabolisierungssystem auf der HPTLC-Platte aufrecht zu erhalten. Zur Durchführung der WBA ist für die meisten Wasserproben (z. B. Oberflächenwasser oder Grundwasser) eine Anreicherung erforderlich. Parallel zu den Arbeiten mit den biologischen Testsystemen erfolgte die Optimierung der Anreicherung von organischen Verbindungen aus Wasserproben. Für die Festphasenextraktion (SPE) wurden verschiedene Materialien bei den pH-Werten 2, 7 und 9 mit Substanzen unterschiedlicher Polarität getestet. Die besten Wiederfindungen über den gesamten Polaritätsbereich erzielte die Phase "Agilent Plexa" (Polydivinylbenzol) mit einer angepassten Elutionsabfolge. Bei der Auswahl des Materials und der Anpassung der Elutionsabfolge wurde auch auf einen möglichst geringen Blindwert für den Biolumineszenz-Hemmtest mit Aliivibrio fischeri geachtet. Damit wurde eine für die WBA geeignete Anreicherungsmethode gefunden. Zur Verbesserung der Extraktionsausbeute von polaren Verbindungen mittels Flüssig-Flüssig-Extraktion (LLE) wurde die Mikro-LLE mit dem in allen Verhältnissen mit Wasser mischbaren Extraktionsmittel Acetonitril getestet. Die im Blindwert auftretenden störenden Substanzen konnten durch Ausheizen des zur Phasentrennung erforderlichen Natriumchlorids erheblich reduziert werden. Bei den Untersuchungen zur Wiederholbarkeit mit einer Deponiesickerwasserprobe und der Detektion der Biolumineszenz von Aliivibrio fischeri waren nur geringe Abweichungen der Hemmwerte detektierbar. Aufgrund der zu erwartenden komplexen Zusammensetzung von Proben aus dem Deponiebereich ist eine Gradientenelution für die HPTLC/AMD notwendig. Anhand von Referenzverbindungen und Extrakten aus verschiedenen Deponien wurde die HPTLC/AMD-Trennung für ein Screening optimiert. Mit diesem Screening-Gradient ist es möglich, die wirkenden Probenbestandteile über die gesamte Trennstrecke zu verteilen. Zusätzlich fand noch eine Entwicklung einer isokratischen HPTLC-Trennung für eine schnelle Beurteilung von Proben statt, wobei bei dieser Methode Abstriche bezüglich der Trennleistung gemacht werden mussten. Zudem konnte gezeigt werden, dass der aufwendige Identifizierungsprozess durch spezifische postchromatographische Derivatisierungsreaktionen auf der HPTLC-Platte unterstützt werden kann. Dazu wurde der Bratton-Marshall-Nachweis von primären Aminen optimiert. Durch den Nachweis von austauschbaren Protonen mittels des H/D-Austausches lassen sich die denkbaren Strukturen deutlich einschränken. Für einen nahezu vollständigen H/D-Austausch hat sich die Kopplung von HPTLC und Massenspektrometer (MS) als besonders geeignet gezeigt, da hier nur wenige Milliliter an deuterierten Lösemitteln benötigt werden. Erprobt wurden die optimierten Methoden an verschiedenen Wässern, welche aus Kläranlagen und aus dem Umfeld von Deponien stammen. Durch die Einführung des RIHV- bzw. RIAV-Wertes ist es möglich Wässer von verschiedenen Probennahmestellen, z. B. Deponiesickerwässer, anhand ihrer Wirkung vergleichend zu beurteilen. Auch kann damit die Veränderung des Wirkungsmusters über einen Aufbereitungsprozess beobachtet werden. Die Untersuchungsergebnisse zeigen zudem, dass auch bei der WBA Feldblindproben entscheidend sind, um Proben sicher beurteilen zu können.
Machinima sind aus einer partizipatorischen Medienkultur der Zweckentfremdung, Aneignung und Adaption von Medientechnologie hervorgegangen und haben sich als ein maßgeblicher ökonomischer, sozialer und kultureller Faktor der Unterhaltungsindustrie etabliert. Das Ziel der vorliegenden Doktorarbeit besteht darin, die emergente Entstehung von Quake Movies und deren Stabilisierung als Machinima, d. h. als Akteur-Netzwerke menschlicher und nichtmenschlicher Akteure zu beschreiben, die Intermedialität des Mediums über Bildanalysen zu identifizieren und Akteur-Netzwerke und mediale Formen in einen Zusammenhang mit medialer Ästhetik zu setzen. Die Gesamtentwicklung reflektierend, werden diese Zusammenhänge wiederholt analysiert und gemäß den unterschiedlichen Entwicklungsphasen der Invention, Innovation und Diffusion interpretiert. Das Ergebnis dieser Analysemethode ist die Konstruktion eines Entwicklungsnarrativs, das am Werk empirisch nachvollziehbar ist und bis dato eine Forschungslücke bzgl. der Erschließung der Geschichte und Theorie von Machinima schließt. Es werden des Weiteren Kernfragen der Medien und Bildgeschichte, der Medientheorie sowie der Technikforschung und Innovationsforschung behandelt.
Gegenstand der Wissenssoziologischen Diskursanalyse (WDA) ist der sozialpolitische Diskurs zur Weiterentwicklung der Eingliederungshilfe für Menschen mit Behinderungen in der Zeit von 2005 bis 2016. Im Rahmen der WDA wurden zwei Diskursformationen, die die Weiterentwicklung der Eingliederungshilfe notwendig machen erarbeitet: Der Kapazitätendiskurs, der einen monetären Sachzwang konstituiert, auf der einen und der emanzipatorisch-bürger*innenrechtliche Diskurs, der die Nichtpassung des gegenwärtigen Hilfesystems mit menschenrechtlichen Bestrebungen einer gleichberechtigten und selbstbestimmten Teilhabe am Leben in der Gesellschaft thematisiert, auf der anderen Seite. Zudem wurde die diskursive Konstituierung des zentralen Reformkonzepts ´Personenzentrierung´, das produzierte Wissen über dieses Konzept, die Strategien der beteiligten Akteur*innen, die mit dem Konzept verfolgt werden, und die dahinter liegenden Deutungsmuster de- und rekonstruiert. Personenzentrierung konstituiert sich insbesondere durch ihre Abgrenzung zu der nicht mehr gewollten, paternalistischen und tendenziell kostenaufwendigen Institutionenzentrierung. Sie beschreibt einen Steuerungsmodus, der mit der Zentrierung des Individuums als zentrales Steuerungsmoment im Leistungsgeschehen und deren Vorstellungen, ihre Leben zu führen, die je passgenauen Leistungen je individuell komponiert (Hilfe folgt Bedarf). Die doppelte Anschlussfähigkeit von Personenzentrierung an die ausgehenden Problemdiskurse offenbart zwei zentrale Deutungsfiguren: Personenzentrierung wird einerseits zu einem sozialpolitischen Steuerungsinstrument, das bedarfsgerechtere und effizientere Leistungen organisiert und Leistungsberechtigte zur Mitwirkung aktiviert, um damit Kosten zu sparen, und andererseits zu einem Selbstbestimmungskonzept, das Leistungsberechtigte aus paternalistisch-fürsorglichen Strukturen befreit und sie als Expert*innen ihrer eigenen Teilhabebedarfe in den Mittelpunkt rückt.
Internationalisierung und Diversifizierung der Gesellschaft sind nur zwei Schlagworte, die mit aktuellen und prognostizierten Veränderungen der Bevölkerung in Deutschland und dem Stichwort des demografischen Wandels verbunden werden. Der Anteil der Menschen, die persönlich oder familiär einen Herkunftsbezug zu Ländern außerhalb Deutschlands aufweisen, steigt seit Jahren an. Diese Menschen werden in der Bevölkerungsstatistik als Personen mit Migrationshintergrund erfasst, wobei vor allem die eigene Staatsangehörigkeit eine Rolle spielt, sowie diejenige der Eltern. In den Mobilitäts- und Verkehrswissenschaften ist das Wissen über diese Bevölkerungsgruppe in Deutschland sehr gering und fragmentiert. Wenig ist bekannt über das Vorhandensein von Nutzungsvoraussetzungen wie Führerscheinbesitz oder der Fähigkeit Fahrrad fahren zu können, über die Verfügbarkeit verschiedener Verkehrsmittel oder über das alltägliche Mobilitätsverhalten. Auffallend ist diese Lücke vor allem im Vergleich mit den USA, wo sich Verkehrs-, Bildungs- und Gesundheitswissenschaften mit dem Mobilitätsverhalten von Migranten beschäftigen. Ziel dieser Arbeit ist es, diese Wissenslücke für Deutschland zu verkleinern. Dabei stellt sich die Frage, ob sich Menschen mit Migrationshintergrund unter den hiesigen Rahmenbedingungen in ihren Mobilitätsvoraussetzungen und in ihrem alltäglichen Mobilitätsverhalten von den Menschen ohne Migrationshintergrund unterscheiden. Darüber hinaus ist die Identifikation wichtiger Einflussfaktoren zur Erklärung des Verhaltens von besonderem Interesse. Grundlage ist eine - teilweise explorativ angelegte - empirische Studie zum Mobilitätsverhalten von Menschen mit und ohne Migrationshintergrund in Offenbach am Main, die 2010 im Rahmen eines Forschungsprojekts am ILS - Institut für Landes- und Stadtentwicklungsforschung gGmbH durchgeführt wurde. Die Ergebnisse zeigen sowohl Gemeinsamkeiten als auch Unterschiede zwischen den Gruppen. Diese betreffen soziodemografische und -ökonomische Faktoren, mobilitätsbezogene Voraussetzungen wie Führerscheinbesitz oder Verkehrsmittelverfügbarkeit, Fragen zur Mobilitätskultur im Elternhaus, aber vor allem die alltägliche Nutzung verschiedener Verkehrsmittel. Die Ergebnisse werden in dieser Arbeit in Artikelform kumulativ präsentiert und durch einen einrahmenden Text eingeleitet, eingeordnet und im Zusammenhang diskutiert.
Das Emotionswissen umfasst verschiedene Bereiche des Erkennens und des Verständnisses von den Emotionen und Emotionsauslösern in anderen Menschen. Die Entwicklung des Emotionswissens findet zu einem großen Teil in der frühen und mittleren Kindheit statt und hängt mit verschiedenen weiteren emotionalen, sozialen und kognitiven Kompetenzen zusammen. In der aktuellen Forschung bestehen jedoch große Unterschiede in der Operationalisierung des Konstruktes. Diese Dissertation hat das Ziel, einige Zusammenhänge des Emotionswissens mit weiteren Variablen genauer zu untersuchen und ein neues Instrument zur Erfassung des Emotionswissens bei Kindern vorzustellen. Es wird der Zusammenhang des Emotionswissens von Kindern in der frühen und mittleren Kindheit mit schulischem Erfolg in Form von der Peerakzeptanz, der Einstellung zur Schule und der akademischen Leistungen betrachtet. Zudem werden die Entwicklung des Emotionswissens bei Kindern mit und ohne Migrationshintergrund, unter Einbezug ihres Sprachverständnisses und ihrer behavioraler Selbstregulation, verglichen. Außerdem werden die psychometrischen Eigenschaften des neu entwickelten Adaptiven Tests des Emotionswissens für drei- bis neunjährige Kinder untersucht. In dem ersten Beitrag der Dissertation, der drei Metaanalysen zum Zusammenhang zwischen dem Emotionswissen und schulischem Erfolg vorstellt, ergaben sich ein mittlerer Zusammenhang des Emotionswissens mit akademischem Schulerfolg und kleine Zusammenhänge mit Peerakzeptanz und der Einstellung zur Schule. Es zeigte sich unter anderem der sozioökonomische Status als ein moderierender Faktor auf diese Zusammenhänge. Im zweiten Beitrag der Dissertation, in dem ein Zuwachsmodell des Emotionswissens unter Einbezug von drei Messzeitpunkten innerhalb eines Jahres berechnet wurde, zeigten Kinder mit Migrationshintergrund zu allen Messzeitpunkten ein statistisch bedeutsam geringeres Emotionswissen als Kinder ohne Migrationshintergrund. Der Zusammenhang des Migrationshintergrundes mit dem Anfangswert des Emotionswissens wurde dabei vom Sprachverständnis und der behavioralen Selbstregulation mediiert. Der Adaptive Test des Emotionswissens für drei-bis neunjährige Kinder wurde mit dem Ziel entwickelt, eine differenzierte und gleichzeitig zeitökonomische Erhebung des Emotionswisssens bei dieser Altersgruppe zu ermöglichen. Der dritte Beitrag der Dissertation stellt die psychometrischen Eigenschaften des Tests vor, der bei einer Stichprobe von 581 Kindern angewendet wurde. Die vorliegende Dissertation unterstreicht die Relevanz des Emotionswissens bezüglich des sozialen und akademischen Erfolges von Kindern und verdeutlicht die Herausforderungen, vor denen Kinder mit Migrationshintergrund stehen. Der Adaptive Test des Emotionswissens für drei-bis neunjährige Kinder stellte sich als ein reliables und valides Instrument heraus, welches die Forschung zum Emotionswissen von Kindern vergleichbarer machen könnte.
Die vorliegende Dissertationsschrift orientiert sich an dem soziologischen Verständnis von Zeit als Gestaltungsprinzip (Elias 1984) und der damit verbundenen Bedeutung für institutionell-pädagogische Zeitgestaltungen. Im Rahmen einer qualitativen - und ethnografisch orientierten - Fallstudie wird herausgearbeitet, wie sich die kindlichen Zeitpraktiken in unterschiedlichen Institutionen der frühen Bildung und im Übergang zur Grundschule mit ihren je besonderen institutionellen Zeitordnungen ausprägen. Die empirischen Befunde zeigen, dass die Fach- und Lehrkräfte auf normierte Ablaufmuster und Vorgaben zur Zeitnutzung zurückgreifen und sich spezifischer Disziplinierungspraktiken bedienen, um die Kinder in die vorherrschende soziale Zeitordnung und das darin verwobene generationale Arrangement einzupassen. Verstärkt durch die zeitlichen Anforderungen des institutionellen Alltags verengen sich die erwachsenen Zeitpraktiken immer wieder zu den gleichen Handlungsweisen; insbesondere die Tendenzen zur Beschleunigung und Verdichtung sind als Gestaltungsmodi beobachtbar. Ungeachtet dessen verdeutlichen die Erkenntnisse weiterhin, dass sich die kindlichen Zeitpraktiken in Formen ausprägen, die häufig nicht den sozial vorherrschenden Handlungspraktiken und Handlungslogiken folgen, sondern vielmehr auf einer eigenen Sinngebung beruhen. Im Vergleich zu den Erwachsenen kommt diese zeitliche Eigenart dadurch zum Ausdruck, dass Kinder Gegenständen andere Bedeutungen und Funktionen beimessen, andere Formen des Handlungsvollzuges praktizieren und sich auch in je besonderen Geschwindigkeitsmodi bewegen. In ihrem spezifischen zeitlichen Handeln lassen sich die Kinder bewusst nicht von den Vorgaben zur Zeitnutzung stören bzw. unterwandern diese immer wieder auch zielgerichtet. Angesichts der divergierenden Handlungspraktiken von Erwachsenen und Kindern geht der Alltag mit regelhaften Zeitkonflikten einher, die sich zulasten der kindlichen Persönlichkeitsentwicklung, des Erwerbs von Zeitkompetenz wie auch der Arbeitsbedingungen des Personals auswirken können, weshalb eine weitere Intensivierung einschlägiger Zeitforschungen bedeutsam erscheint.
Die vorliegende Arbeit untersucht das Reiseverhalten verschiedener Generationen in Deutschland (68er, Babyboomer, Generation X und Generation Y) anhand der Kohortenanalyse. Mit Hilfe des Intrinsic Estimators und der Rohdaten der Reiseanalyse für die Jahre 1971 bis 2012 wurden Kohorteneffekte, Alterseffekte und Periodeneffekte für die verschiedenen Merkmale des Reiseverhaltens geschätzt. Deutliche Unterschiede zwischen den Generationen, die unabhängig von Alter und Jahr bestand haben sollten, wurden in Bezug auf die Wahl des Verkehrsträgers, der Unterkunft, der Reiseart und der Destination identifiziert. Bei anderen Merkmalen gab es hingegen weniger oder nur geringe Generationenunterschiede. Die Ergebnisse ermöglichen einen genaueren Blick in die Zukunft des Reisens und geben wichtige Hinweise für die tourismuswirtschaftliche Praxis.
Das digitale Spiel "The Witcher 3: Wild Hunt" bietet mit seinen Erweiterungen "Hearts of Stone" und "Blood and Wine" eine riesige digitale Welt voller komplexer Handlungsmuster, Charaktere und Orte. Gestützt auf die Lesart von Mendonça und Freitas versteht die vorliegende Arbeit das digitale Spiel als Text. In einem close reading werden in das Spiel integrierte Motive und Genrekonventionen anhand exemplarischer Beispiele herausgearbeitet. Durch die Analyse von referenziellen Versatzstücken wird der Frage nachgegangen, wo sich in "The Witcher 3: Wild Hunt" kulturelle Konventionen und Innovationen finden und inwiefern mit gewohnten Mustern gespielt wird. Durch die Entschlüsselung von Codes wird beobachtet, wo durch dieses Spiel mit den Konventionen mit Erwartungen der Spieler gebrochen wird, um so neue Bedeutung zu generieren. Den Landschaften und Bewohnern kommt eine genaue Untersuchung zu, wobei der Fokus dank Aussagen der Entwickler auf den Konstrukten der "Polishness" und "Slavicness" liegt. Betrachtet werden Easter Eggs als intertextuelle Zitatebenen sowie die als polnisch behaupteten Landschaften, die Verhandlung des Fremden, die Konstruktion "slawischer" Monster/Antagonisten und die Darstellung weiblicher Charaktere. Obwohl in einigen dieser Konzepte Widersprüchlichkeiten festgestellt werden, finden sich in ihnen auch Ansätze zur Innovation, die auf neue Muster in der Entwicklung zukünftiger digitaler Spiele hoffen lassen. Somit lohnt es, als "polnisch" behauptete Landschaften, die nicht identitätsstiftenden wirken sollen, angeblich "slawische" Monster und Antagonisten, die sich als transkulturelle Hybride entpuppen, und Frauen, deren Stärke durch ihre Sexualisierung untergraben wird, näher zu betrachten.
Das 21. Jahrhundert als "urban century" bietet neben vieler positiver Aspekte auch zahlreiche Herausforderungen im Stadtraum. Neben Stressfaktoren wie Lärm und Umweltverschmutzung nehmen Extremwetterereignisse wie Hitze und Starkregen zu, muss also eine Klimafolgenanpassung erfolgen und muss zusätzlicher Wohnraum für mehr Menschen geschaffen werden. Erholungs- und Aktivitätsräume stehen zudem in Konkurrenz zum Ausbau der Infrastruktur. Die Herausforderungen bedingen die Notwendigkeit für transdisziplinäre Diskurse und Arbeitsweisen im Rahmen einer klimawandelgerechten Stadtentwicklung. Mit diesem Hintergrund setzt sich die Arbeit zum Ziel Potenziale zu erarbeiten, die sich in Lüneburg für eine Begrünung der Innenstadt bieten, um dem sich wandelnden Klima zu begegnen, sowie herauszuarbeiten welche Akteuren, Schlüsselfaktoren und Schlüsselelemente die Umsetzung von Begrünungsmaßnahmen einschränken oder stärken. Mit der Methode der Konstellationsanalyse sollen zukunftsgerichtete und zentrale Handlungsfelder verdeutlicht werden. Es soll die Basis für eine erfolgreiche und nachhaltige Arbeitsweise sowie Zusammenarbeit im Bereich der Klimafolgenanpassung in Lüneburg gelegt werden.
Lange wurde die Lüneburger Heide in Reiseberichten bis zum Ende des 18. Jahrhunderts als karge Wüste beschrieben, vor allem wegen der ungünstigen Infrastruktur. Etwas später hingegen, während der Romantik und im Zuge der Heimatbewegung, wurde sie als beschauliches, schützenswertes Idyll und Schönheit geschätzt. Um die Jahrhundertwende zum 20. Jahrhundert geriet die Lüneburger Heide zum ersten Mal in den Fokus der Touristen. Gleichzeitig kamen die ersten Reiseführer den Bedürfnissen der stetig wachsenden Anzahl Touristen nach. Heutzutage steht das Gebiet für vielfältige Erlebnismöglichkeiten und kommerzialisierten Massenandrang zur Heideblüte. Da für Reisende schon seit den Anfängen des Tourismus Reiseführer zur Verfügung stehen, die die Gebiete präsentieren, ist es unter anderem in der Kulturanthropologie zu einer Aufgabe geworden, die Konstruktion einer Landschaft bzw. einer Region durch diese Art der Ratgeberliteratur zu untersuchen. Deswegen soll es im Folgenden um die Erschaffung der Lüneburger Heide als Reiseregion gehen. Die Leitfrage dabei ist: Wie wird sie in den verschiedenen Reiseführern im Wandel der Zeit präsentiert? Um dieser Frage nachzugehen, sollen die Reiseführer im Hinblick darauf untersucht werden, ob die Motivik auf den Fotos ähnlich ist, und wie die Landschaft sprachlich dargestellt wird. Wird die Lüneburger Heide außerdem als eher erlebnisbezogen oder als ruhebezogen charakterisiert und welche Zielgruppe wird angesprochen? Wie wird die einheimische Bevölkerung in der Darstellung berücksichtigt? Die Analyse lässt auch Schlüsse auf den gesellschaftlichen Wandel zu und erlaubt, Thesen zu der Veränderung von Reisebedürfnissen bzw. -praxen sowie zur Veränderung des Tourismus allgemein zu entwickeln. In dieser Arbeit soll es sich folglich um die vergleichende Analyse von vier Reiseführern handeln: Zwei sind in der Zeit um 1910 entstanden, somit kurz nach der Gründung des Naturschutzparks Lüneburger Heide 1909, der die Region offiziell als "schützenswert" anerkannte, die zwei anderen stammen aus heutiger Zeit, sind zeitlich also gut hundert Jahre später einzuordnen.
"Einfachheit" gehört zu den maßgeblichen Begriffen, mit denen in der Kunst-, Kultur- und Literaturgeschichte unterschiedliche Wertzuschreibungen einhergehen. Seit Ende des 20. Jahrhundert setzt sich nebenher ein globalisierter Lifestyle durch, der mit geschickten Werbetriggern eine "Sehnsucht nach Einfachheit" weckt und hohe Erwartungen an das Ideal der Komplexitätsbewältigung knüpft. Das damit einhergehende breite Funktionalisierungspotential wird hier aufgegriffen, um den neuen Fragen nachzugehen, warum die Einfachheit einen bemerkenswerten Erfolg in der deutschsprachigen Gegenwartsliteratur feiert und was uns vergleichbare Bewegungen in Architektur, Design und den visuellen Künsten über den aktuellen Ruf nach Einfachheit erzählen. Am Beispiel des erzählerischen Werks von Judith Hermann, Peter Stamm und Robert Seethaler wird erstmalig gefragt, mit welcher Intention und Qualität sich die Einfachheit in den Texten dieser Autoren formiert und ob es sich bei der Kunst der erzählerischen Reduktion um ein spezifisch für die Gegenwart relevantes Konzept handelt. Die Studie leistet damit einen wesentlichen Beitrag zu der noch ausstehenden literaturwissenschaftlichen Systematisierung einer "Ästhetik der Einfachheit".
Im Kontext der Problematik von Fehlinformationen in der populärwissenschaftlichen Literatur widmet sich diese Arbeit in einer Fallstudie drei häufig verkauften Büchern Peter Wohllebens. Untersucht wird, wie nah diese Werke sich am aktuellen Stand der Forschung orientieren und wie gut die getätigten Aussagen nachvollziehbar sind. Für die Untersuchung wurde der Inhalt der Bücher codiert und die resultierenden 8899 Codiereinheiten quantitativ und qualitativ-vergleichend analysiert. Ergänzt wurde dies durch die qualitativ-vergleichende Analyse von drei Schwerpunktthemen. Aus den Ergebnissen wird geschlussfolgert, dass Wohllebens Nähe zum wissenschaftlichen Diskurs unter Einschränkungen ausreichend und die Nachvollziehbarkeit seiner Aussagen mangelhaft ist. Basierend auf diesen Erkenntnissen werden mögliche Maßnahmen und Handlungsfelder für eine Erhöhung der wissenschaftlichen Qualität populärwissenschaftlicher Werke diskutiert. Es werden weitere potentielle Forschungsmöglichkeiten für ein besseres Verständnis der Situation in den Populärwissenschaften identifiziert und vorgeschlagen.
Im deutschsprachigen Raum fehlt es an gezielten präventiven Maßnahmen für Kindergartenfachkräfte, um das Emotionswissen von Kindern kontextsensibel und alltagsintegriert über die Sprache in Routinesituationen zu fördern. Diese Lücke soll durch die Entwicklung und Evaluation eines Emotionswissen-Trainings ("Em:-)s") für Kindergartenfachkräfte geschlossen werden. Im ersten Teil soll auf den theoretischen Hintergrund des Konstrukts "Emotionswissen" eingegangen werden. Darüber hinaus wird erklärt, wie sich das Emotionswissen im Kindergartenalter entwickelt, welche Rolle die Sprache spielt, warum die Förderung wichtig ist und welche aktuellen kommunikationsbasierten Tools geeignet sind, um das Emotionswissen bei Kinder zu fördern. Der folgende Abschnitt beschäftigt sich mit den Auswirkungen fehlender Förderung des Emotionswissens sowie den Fördermöglichkeiten im Kindergarten. Dabei wird auf bereits existierende Präventions- und Interventionsprogramme eingegangen. Im Anschluss folgt die theoretische Einbettung sowie die Entwicklung und Umsetzung von Emojis. Die verschiedenen Trainingsinhalte sowie die angewendeten Methoden werden vorgestellt. Dann folgen theoretische Vorüberlegungen sowie die Evaluation von Emojis auf vier verschiedenen Ebenen. Abschließend werden in diesem Abschnitt Zielsetzungen und Fragestellungen der Evaluation formuliert. Im folgenden Abschnitt werden dann die verwendeten Methoden näher vorgestellt. Im Ergebnisteil erfolgt zuerst die Analyse der fehlenden Werte. Da in der vorliegenden Arbeit eine hohe Anzahl an fehlenden Werten vorlag, wurden die Daten imputiert und anschließend separat (originale und gepoolte Daten) dargestellt. Es folgt im Anschluss eine Darstellung der methoden- und erwartungsbezogenen Ergebnisse. Im letzten Abschnitt der Arbeit werden die Ergebnisse der Evaluationsstudie interpretiert und in die aktuelle Forschung eingeordnet. Darüber hinaus werden die Ergebnisse der Dissertation mit drei anderen deutschsprachigen Präventionsprogrammen verglichen. Abschließend werden die Limitationen der Evaluationsstudie besprochen.
Diese Bachelorarbeit hat das Ziel, die Wirkung der innerhalb der PPS-Hauptaufgabe Produktionsprogrammplanung verwendeten Verfahren auf die logistischen Zielgrößen der unternehmensinternen Lieferkette zu modellieren. Dafür werden zunächst die Grundlagen der Produktionsplanung und -steuerung (PPS) sowie das Hannoveraner Lieferkettenmodell (HaLiMo) dargelegt. Es werden die zur Erfüllung der PPS-Aufgaben Absatzplanung und langfristige auftragsanonyme Ressourcengrobplanung verwendeten Verfahren aufgegriffen und detailliert beschrieben. Anschließend werden die Wirkbeziehungen zwischen diesen Verfahren und den logistischen Zielgrößen modelliert, wobei verschiedene Fallbeispiele betrachtet werden, welche als Ausgangspunkt dienen und jeweils unterschiedliche Auswirkungen auf die Zielgrößen aufzeigen. Aus den Modellen geht hervor, dass die Auswahl geeigneter bzw. adäquater Verfahren sowie die richtige Durchführung dieser unmittelbar auf die Zielgrößen der unternehmensinternen Lieferkette einwirken. Die Ergebnisse dieser Bachelorarbeit akzentuieren somit die Auswirkungen sowie die Relevanz der im Rahmen der Produktionsprogrammplanung verwendeten Verfahren und erleichtern die Handhabung der PPS-Konfiguration in einem praxisnahen Umfeld.
Die Einführung von Industrie 4.0 und der damit verbundene Wandel des Produktionsumfeldes führen zu neuen Herausforderungen, bieten auf der anderen Seite aber auch neue Möglichkeiten für Unternehmen. Ausgehend von den Herausforderungen der Produktionsplanung und Steuerung als zentrales Element der Produktherstellung, z.B. Komplexität, Dynamik und neue Organisationsformen, werden bestehenden Methoden der Reihenfolgeplanung auf ihre Tauglichkeit zur Verwendung hin geprüft. Die Analyse zeigt, dass Aspekte wie die Ableitung von Handlungen und der Transfer von Wissen in unbekannten Situationen zu den größten Herausforderungen für bestehende Verfahren zählen. Die in der Arbeit neu entwickelte Methode zur dynamischen Auswahl und Anpassung von Reihenfolgeregeln in komplexen Fertigungssystemen mit bestärkendem Lernen greift diese Herausforderungen auf und untersucht mögliche Lösungsstrategien. Die im Rahmen der Arbeit neu entwickelte Methode wird über ein Spektrum an unterschiedlichsten Szenarien evaluiert und mit anderen Methoden verglichen. Dabei werden verschiedene Ausprägungen und Komplexitäts-Niveaus von Handlungen, der Beobachtungsraum und die Mengen an benötigten Daten detailliert analysiert. Schlussendlich zeigt sich, dass die neue Methode in der Lage ist, die Anforderungen an die Produktionsplanung- und Steuerung zu erfüllen und in bekannten wie in unbekannten Szenarien gut Leistung zu erbringen. Zusätzlich ist die Methode in der Lage menschenähnliche Leistungen zu bringen und kann in einem realen Anwendungsfall zur Unterstützung der Produktionsplanung und -Steuerung genutzt werden.
Aufbauend auf einem interdisziplinären Modell, das sowohl kognitionspsychologische als auch mathematikdidaktische Fähigkeiten beim Schätzen von visuell erfassbaren Größen (Längen, Flächeninhalte, Fassungsvermögen, Rauminhalte) beinhaltet, und einem Modell zur Systematisierung verschiedener Aufgabenmerkmale wurde im Rahmen dieses Dissertationsprojekts ein schriftlicher Schätztest entwickelt. Der Schätztest beinhaltet insgesamt 48 Items, deren Merkmale zwischen den Größen parallelisiert und gleich verteilt sind (12 Items pro Größe) Die Daten des Tests werden genutzt, um verschiedene Arten der Ermittlung und Bewertung von Schätzgenauigkeit zu untersuchen, die Schätzgenauigkeit von Kindern der vierten, fünften und sechsten Klasse zu ermitteln und um den Zusammenhang der vier Größen zu beschreiben. Die Untersuchung verschiedener klassischer Fehlerberechnungs- und Bewertungsarten zeigt wesentliche Unterschiede in Testleistung und Testgüte. Die Berechnung des logarithmischen Fehlers in Verbindung mit einem logarithmischen Scoring wird als ein alternatives Verfahren genutzt. Die Analyse der Schätzergebnisse von 900 Kindern zeigt, dass sich die Schätzgenauigkeit von Kindern der vierten und sechsten sowie fünften und sechsten Klassen signifikant unterscheidet: Kinder aus höheren Jahrgängen schätzen genauer als Kinder aus niedrigeren Jahrgängen. Es konnte kein signifikanter Unterschied bei der Schätzgenauigkeit zwischen Kindern der vierten und fünften Klassen festgestellt werden. Darüber hinaus unterscheidet sich Schätzgenauigkeit signifikant zwischen den Größen: Längen werden am genauesten geschätzt, gefolgt von Fassungsvermögen, Flächeninhalten und Rauminhalten. Alle Größen korrelieren bezüglich der Schätzgenauigkeit moderat miteinander. Die Schätzgenauigkeit von Längen kann als Prädiktor für die Schätzgenauigkeit der anderen Größen herangezogen werden.