Filtern
Erscheinungsjahr
Dokumenttyp
- Research Paper (143) (entfernen)
Schlagworte
- Export (10)
- Deutschland (9)
- Produktivität (9)
- Exports (7)
- Germany (7)
- Informatik (7)
- Unternehmen (7)
- Verwaltungsinformatik (7)
- Kultur (6)
- productivity (6)
Institut
- Frühere Fachbereiche (143) (entfernen)
Durch die Wiederentdeckung der Systemtheorie ist in den letzten Jahren immer häufiger zur Anwendung der Chaos-und Katastrophentheorie in der Psychologie zu beobachten. Dies geschieht allerdings nicht empirisch, sondern auschließlich über Plausibilitätsargumentationen. Deshalb erscheint es notwendig, die Fruchtbarkeit dieser Modelle für die Psychologie zu überprüfen. Es wird ein Überblick über chaos- und katastrophentheoretische Modelle gegeben und Anwendungsbeispiele für die Psychologie diskutiert. Es kann festgehalten werden, daß diese nicht-linearen Modelle zwar einen gewissen Stellenwert errungen haben, eine Anwendung aber nur dann sinnvoll und richtig ist, wenn (1) der Systembegriff geklärt ist, (2) ein adäquates statistisches Modell gefunden wird.
Da Capo Al Segno
(1998)
Cut,-Copy-and-Paste-Verfahren gelten in Kreisen der Hochkultur immer noch als verschrien und trennen "echte" Kunst eindeutig von Nicht-Kunst. Das Werk Glenn Goulds zeigt beispielhaft, dass solche Festschreibungen nicht immer gelten. Nach dem Ende des auratischen Kunstwerks entsteht keine in und durch die Medien neu vergesellschaftete Kunst, sondern ein neuer Mythos. Nach dem Mythos der High Fidelity folgt der Mythos der Produktionstechniken und ihrer Magier, ein Mythos, an dem Gould - neben seinen Kollegen aus der "populaeren Musik", den Beatles, den Beach Boys und ihren Studioingenieuren - als einer der Ersten kraeftig mitstrickt.
Medienwechsel
(2000)
Die Paechsche "Figuration der Aufloesung" beschreibt den subkutanen Medienwechsel eines mittelalterlichen Manuskripts von 1239, verdraengt vom Satz mit den beweglichen Lettern eines Johann Gensfleisch zum Gutenberg um 1440 in die Turing-Galaxis der digitalen Medien des zwanzigsten Jahrhunderts. Diese Entwicklung wird hier am Beispiel der Ebstorfer Weltkarte nachvollzogen, die im Digitalen wieder ein adaequates Medium fand.
Kultur.Informatik WS 0304
(2000)
Zweifellos gibt es fruchtbare Blickwinkel, unter denen Computermedien im Prozeß einer Sinnproduktion zu betrachten sind. Gerade wegen ihrer semantischen Enthaltsamkeit nämlich – zu der noch mehr und Weiteres zu sagen sein wird – wegen ihrer semantischen Abstinenz also sind Computer überaus wirksam bei der Errichtung symbolischer Ordnungen, treten sie als Apparate und Medien bei der Errichtung von Wissensordnungen in Erscheinung, die ohne sie nicht existieren würden.
Diese Studie diskutiert mögliche Varianten einer Sustainability Balanced Scorecard. Dabei geht es um die Integration von Umwelt- und Sozialmanagement in das 1992 von Kaplan und Norton entwickelte strategische Managementkonzept der Balanced Scorecard. Die hier entwickelte Sustainability Balanced Scorecard stellt Unternehmen ein Instrument für ein wertorientiertes Nachhaltigkeitsmanagement zur Verfügung.
Rehabilitationsrecht
(2001)
Die wachsende Komplexität technischer Systeme und deren immer weiter gehende Vernetzung machen einen rechnergestützten Entwurf unabdingbar. In dem Aufsatz wird mit mit VISTA ein Entwurfsprozess verteilter, eingebetteter Systeme vorgestellt, welcher unterschiedliche Konzepte (wie Systementwurf durch UML, Softwarebeschreibung und -generierung durch SDL, Multidomänenmodellierung und -simulation sowie Echtzeitsimulation) nahtlos miteinander kombiniert und damit einen inkrementellen Entwurf ermöglicht.
Am Beispiel von Daten über die subjektive Wahrnehmung der Lernumwelt von Schülern aus 7. Hauptschulklassen wird gezeigt, dass es eine maßgebliche Differenz zwischen der realen Umwelt (so wie sie wahrgenommen wird) und der idealen Umwelt (so wie sie sich von den Schülern gewünscht wird) gibt. Dies wird als Hinweis dafür gedeutet, dass die schulische Umwelt nicht schülergerecht strukturiert ist oder zumindest den Schülern nicht deutlich ist, dass gewisse Schulspezifika unvermeidbar sind. Desweiteren wird gefragt, ob diese Differenz zwischen realer und idealer Umwelt als Zufriedenheitsindex angesehen werden können. Dabei stellte sich heraus, dass dies nur inhaltsspezifisch möglich ist, Zufriedenheit also kein Globalphänomen als Resultat eines Soll-Ist-Vergleiches ist.
In einer empirischen Untersuchung werden die Wahrnehmungen der Schüler-Schüler-Beziehungen von hoch vs. niedrig individualistisch, rivalisierend, feindlich und defensiv orientierten Schülern aus 7. Hauptschulklassen im Laufe eines Schuljahres miteinander verglichen. Dabei zeigte sich, dass a) keine Effekte über die Zeit vorliegen, b) die stärksten Unterschiede zwischen hoch und niedrig kompetitiven Schülern in den beiden Lernumweltbereichen Hilfsbereitschaft und Konkurrenzorientierung von Mitschülern liegen, und dass c) die Wettbewerbsorientierung mit dem geringsten Partnerbezug (individualistisch) die höchsten Effekte aufweist. Vor allem das letzte Ergebnis deutet darauf hin, dass den kategorialen Unterscheidungen motivationaler Orientierungen aufgrund des Partnerbezuges (DEUTSCH, 1973) bisher zu wenig Beachtung geschenkt wurde.
Aus den Forschungen zur Berufszufriedenheit ist bekannt, dass Zufriedenheit auch als Differenz zwischen tatsächlichen und gewünschten Arbeitsverhältnissen verstanden werden kann. An dieser Stelle verknüpft sich die Berufszufriedenheitsforschung mit der Erforschung der Lernumwelt. An einem empirischen Beispiel mit Lehrern aus 7. Hauptschulklassen wird aufgezeigt, dass große Diskrepanzen zwischen der realen und der idealen Lernumwelt bestehen. Diese Diskrepanz erlaubt Rückschlüsse auf die Zufriedenheit von Lehrern. Der Vorteil diese Vorgehens ist es, dass man inhaltlich differenziert vorgehen kann und nicht darauf angewiesen ist, Zufriedenheit als globales Konstrukt verwenden zu müssen.
Die Problem-Balance-Bilanz
(2001)
Hegels "Antigone-Deutung"
(2001)
Nietzsche und der Mythos
(2001)
Was brauchen LehrerInnen, um gesund und leistungsfähig zu bleiben? Zunächst nur das, was leitende Manager oder ihre Fahrer auch brauchen: Einen pfleglichen Umgang mit ihrer Gesundheit, Identifikation mit ihren Aufgaben und passende Kompetenzen, realistische Ziele, lebens-
lange effektive Weiterbildung, um wechselnden Problemlagen gewachsen zu sein, vernünftige Arbeitsbedingungen an ihrem unmittelbaren Arbeitsplatz sowie im Konzern und eine politische Großwetterlage, die ihren Aufgaben und Zielen günstig ist. In allen Fällen ist der Faktor Mensch für die Freude am „Funktionieren“ ebenso bedeutsam wie die herrschenden Rahmenbedingungen. Trotz aller Statistiken über Burnout und Frühpensionierung kann und soll der Lehrerberuf Freu-
de und Sinnerfahrungen vermitteln (vgl. Grimm, 1996 und Sieland, 2000). Aber: Ohne Fleiß keinen Preis. Wer gesunde und leistungsfähige PädagogInnen haben möchte, muss sich selbst gezielt dafür einsetzen und nicht nur dafür plädieren, dass andere aktiv werden, oder dass sichdie Großwetterlage verbessern muss. Auf der Suche nach Ansätzen zur Förderung der Gesundheit und Leistungsfähigkeit von Lehre-
rInnen möchte ich strukturierende Fragen formulieren, spezielle Forschungsergebnisse über Ressourcen und Risikofaktoren in der Lehrperson skizzieren und einen Orientierungsrahmen vorschlagen, der wenigstens zu Einzelaktionen ermutigt, solange die eigentlich notwendigen konzertierten Aktionen ausbleiben.
Das Seufzen der Olimpia
(2002)
Wir haben es bei unserem Thema also mit einem Phantasma zu tun, dem der Beseelung, der Unterstellung von Odem, von Atem, bei toter Materie, bei den Maschinen. Und auch der Eindruck, die Maschinen machten sich nach und nach selbständig, und sie hätten so etwas wie Autonomie, ist natürlich nicht von der Hand zu weisen. Niemand könnte mehr behaupten, etwa das Internet noch zu beherrschen, wie man ein Werkzeug beherrscht. Unbeherrschbarkeit ist ja geradezu ein notwendiges Charakteristikum selbstorganisierender Systeme. Aber ist es denn so, dass wir unsere Computersysteme nicht mehr direkt programmieren können, bleibt uns, wie bei Kontrollversuchen an autopoietischen Systemen nur die Handlungsoption, Bedingungen für Möglichkeiten zu schaffen, und sind wir dann zum Zusehen und Abwarten verurteilt, ob manches dann auch so kommt, wie wir es intendieren?
During the nineties of the last century, several formerly monopolistic markets (telecommunication, electricity, gas, and railway) have been deregulated in Germany based on European directives and theoretically inspired by the theory of contestable markets. The original contestable market theory implied three assumptions necessary to be satisfied to establish potential competition: Free market entry, market exit possible without any costs, and the price adjustment lag exceeding the entry is shows that if the incumbent reduces its prices slowly (high adjustment lag) and the market entry can be performed quickly (low entry lag), a new competitor will be able to earn back sunk costs. Therefore it is not necessary that all three conditions are complied with for potential competition to exist. Applying this 'revised' contestable market theory to the deregulated sectors in Germany sections, natural monopolies can be identified in telecommunication local loops and local/regional connection networks, in the national electricity grid and the regional/local electricity distribution networks, in the national and regional/local gas transmission/distribution sections, and in the railroad network only. These sections are not contestable due to sunk costs, high entry lags expected and a probable short price adjustment lag. They are identified as bottlenecks which should be regulated. The function of system operators in energy and railroad are closely related to the non contestable monopolistic networks.
Despite the scepticism raised by the German Monopoly Commission our analysis shows that the revised theory of contestable markets can be applied to the telecommunications market better than expected. The original contestable market theory implied three assumptions necessary to be satisfied to establish potential competition: Free market entry, market exits possible without any costs, and the price adjustment lag exceeds the entry lag. Our analysis shows that if the incumbent reduces its prices slowly (high adjustment lag) and the market entry can be performed quickly (low entry lag), a new competitor will be able to earn back sunk costs. Therefore it is not necessary that all three conditions are complied with for potential competition to exist. We applied the 'revised' contestable market theory to the German telecommunication market and have been able to clearly identify the sections in which regulation is required. Under the present conditions local loops - which should be seen as natural monopolies - are not contestable due to sunk costs, high entry lags expected and a probable short price adjustment lag. Local loops can be identified as bottlenecks therefore. Regional and local connection networks should also be regulated because a high entry lag and a low price adjustment lag have to be expected as well as current competition does not exist today. The national connection network shows current competition between several network providers, hence regulation can be abolished in this field. Moreover, services can be supplied by several firms, and we predict strong potential competition.. There are no arguments favouring a natural monopoly in the section of terminals.
Leere und Zen
(2003)
Mit Die empirischen Grundlagen der Unterrichtsforschung legte Klaus Beck ein methodenkritisches Werk vor, was man ohne weiteres als große Herausforderung für empirisch arbeitende Wissenschaftler bezeichnen kann. Es wühlt auf, versucht Beck doch zu zeigen, dass Beobachtungs- und Befragungsmethoden wegen der Bedeutungsüberschneidung der Kategorien resp. ratings nicht hinreichend valide sind, um ein genaues Bild der Unterrichtswirklichkeit geben zu können. Das Erkenntnisziel der analytisch-empirischen Unterrichtsforschung sei systematisch verfehlt.
Der Raum des Cyberspace
(2003)
Es ist zu fragen, ob das Neue am Cyberspace tatsächlich eine gänzlich andere Topographie – jenseits der Grenzen des uns bekannten Raumes – oder eine ganz neue Ökonomie sei, die den Gesetzen des Kapitalismus nicht mehr gehorcht, ob im Cyberspace gar Raum, Zeit und Geld verschwänden, welche die neuen Verhältnisse sind, in denen wir ein Leben führen, das zweifellos tatsächlich ein anderes ist als vor Erfindung der weltumspannend vernetzten Digitalcomputer.
Combinatorial optimization is still one of the biggest mathematical challenges if you plan and organize the run-ning of a business. Especially if you organize potential factors or plan the scheduling and sequencing of opera-tions you will often be confronted with large-scaled combinatorial optimization problems. Furthermore it is very difficult to find global optima within legitimate time limits, because the computational effort of such problems rises exponentially with the problem size. Nowadays several approximation algorithms exist that are able to solve this kind of problems satisfactory. These algorithms belong to a special group of solution methods which are called local search algorithms. This article will introduce the topic of simulated annealing, one of the most efficient local search strategies. This article summarizes main aspects of the guest lecture Combinatorial Optimi-zation with Local Search Strategies, which was held at the University of Ioannina in Greece in June 1999.