Filtern
Erscheinungsjahr
Dokumenttyp
- Research Paper (92)
- Bericht (67)
- Diplomarbeit (58)
- Teil eines Buches (Kapitel) (41)
- Dissertation (37)
- Wissenschaftlicher Artikel (19)
- Arbeitspapier (14)
- Beitrag in Konferenzband (12)
- Buch (Monographie) (9)
- Sonstiges (7)
Schlagworte
- Informatik (18)
- Kultur (15)
- Schule (12)
- Deutschland (10)
- Export (10)
- Produktivität (9)
- Unternehmen (9)
- Computer (7)
- Exports (7)
- Germany (7)
Institut
- Frühere Fachbereiche (363) (entfernen)
PeTAL (Picture Text Annotation Language) is proposed as an XML-standard for digital documents containing text, images, and videos with heavy cross-referencing, esp. from clickable parts of images to other parts of the material. A browser capable of interpreting the PeTAL code shown here is under construction.
PeTAL Document Type Definition, Syntaxbeschreibung des XML-Standards zur Annotation von Bildern.
This paper discusses a model of vertical and horizontal product differentiation within the Dixit-Stiglitz framework of monopolistic competition. Firms compete not only in prices and horizontal attributes of their products, but also in the quality that can be controlled by R&D activities. Based upon the results of a general equilibrium model, intra-sectoral trade and the welfare implications of public intervention in terms of research promotion are considered. The analysis involves a numerical application to ten basic European industries.
Bei den Statistischen Ämtern des Bundes und der Länder und im Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit werden zahlreiche Daten für Unternehmen bzw. Betriebe gesammelt und aufbereitet. Durch das Unternehmensregister ist bei den Statistischen Ämtern eine "Masterdatei" entstanden, die es technisch möglich macht, Unternehmensdaten aus den Beständen der genannten und weiteren Institutionen zusammenzuführen. Das Projekt KombiFiD – Kombinierte Firmendaten für Deutschland soll zeigen, dass ausgewählte Datenbestände tatsächlich über die Grenzen der jeweiligen Datenproduzenten zusammengeführt und der Wissenschaft zur Verfügung gestellt werden können, und es soll gleichzeitig demonstrieren, dass das Analysepotenzial dieser kombinierten Datensätze sehr viel höher ist als das der einzelnen Bestandteile. Der vorliegende Beitrag stellt die Konzeption dieses Projekts und das geplante Vorgehen vor.
Web 2.0 is a common term in the Internet field nowadays. Web 2.0, which is sometimes also called participation web, already motivates millions of people to contribute. Web 2.0 could also be used to improve enterprise information technology. Therefore the use of Web 2.0 concepts in an enterprise context seems worth considering.
In diesem Text soll es um Computerkultur gehen, die mit den Begriffen Synthese, Mimesis und Emergenz beschrieben wird. Fuer das Kulturprodukt - vielleicht sogar Kulturindustrie-Produkt - Film ist die Zeit guenstig fuer ein solches Unterfangen, denn wir koennen mittlerweile gut zwanzig Jahre ueberblicken, wir koennen bei der technischen Basis des synthetischen fotorealistischen Computergraphik-Bildes beginnen, sind im Moment in der Hochzeit der Animation in voller mimetischer Pracht angelangt, sehen aber auch schon, was an hochgradig vernetztem Geschehen z. B. als massive online role game Emergenzen zeitigt.
Es geht um die Widerstaendigkeit des Bildes, um das Phaenomen des Unvermoegens von Suchmaschinen, Bilder ebenso effizient aus der Flut des online zugaenglichen Materials zu filtern, wie es bei Texten so exzellent funktioniert. Dabei wird die Pointe sein, dass es sich nicht um ein informatisches Problem handelt, eines, das sich mit raffinierteren Algorithmen und schnelleren Computern in den Griff bekommen liesse, sondern, dass es sich um ein kulturell emergentes Phaenomen handelt, also zum dritten Teil der Triade Synthese - Mimesis - Emergenz gehoert.
Cut,-Copy-and-Paste-Verfahren gelten in Kreisen der Hochkultur immer noch als verschrien und trennen "echte" Kunst eindeutig von Nicht-Kunst. Das Werk Glenn Goulds zeigt beispielhaft, dass solche Festschreibungen nicht immer gelten. Nach dem Ende des auratischen Kunstwerks entsteht keine in und durch die Medien neu vergesellschaftete Kunst, sondern ein neuer Mythos. Nach dem Mythos der High Fidelity folgt der Mythos der Produktionstechniken und ihrer Magier, ein Mythos, an dem Gould - neben seinen Kollegen aus der "populaeren Musik", den Beatles, den Beach Boys und ihren Studioingenieuren - als einer der Ersten kraeftig mitstrickt.
"...as a matter of fact, all that is computerized gained such an amount of reality that nothing could be more mistaken than to call the products of the information technology industry 'virtual'."
Turings Maschine ist, wie man weiß, nie gebaut worden, und dies wäre auch nicht möglich. Dennoch und gerade deswegen kann sie als das Vorbild eines jeden Computers gelten, der bislang gebaut wurde oder es je werden wird. Denn sie, Turings Gedanken- oder Papiermaschine, wurde mit Vorbedacht als ein so simpler Mechanismus entworfen, daß an ihrer prinzipiellen Realisierbarkeit und daran, dass sie ohne menschlichen Eingriff zu funktionieren imstande wäre, kein Zweifel bestehen kann.
Wir haben es bei unserem Thema also mit einem Phantasma zu tun, dem der Beseelung, der Unterstellung von Odem, von Atem, bei toter Materie, bei den Maschinen. Und auch der Eindruck, die Maschinen machten sich nach und nach selbständig, und sie hätten so etwas wie Autonomie, ist natürlich nicht von der Hand zu weisen. Niemand könnte mehr behaupten, etwa das Internet noch zu beherrschen, wie man ein Werkzeug beherrscht. Unbeherrschbarkeit ist ja geradezu ein notwendiges Charakteristikum selbstorganisierender Systeme. Aber ist es denn so, dass wir unsere Computersysteme nicht mehr direkt programmieren können, bleibt uns, wie bei Kontrollversuchen an autopoietischen Systemen nur die Handlungsoption, Bedingungen für Möglichkeiten zu schaffen, und sind wir dann zum Zusehen und Abwarten verurteilt, ob manches dann auch so kommt, wie wir es intendieren?
Es ist zu fragen, ob das Neue am Cyberspace tatsächlich eine gänzlich andere Topographie – jenseits der Grenzen des uns bekannten Raumes – oder eine ganz neue Ökonomie sei, die den Gesetzen des Kapitalismus nicht mehr gehorcht, ob im Cyberspace gar Raum, Zeit und Geld verschwänden, welche die neuen Verhältnisse sind, in denen wir ein Leben führen, das zweifellos tatsächlich ein anderes ist als vor Erfindung der weltumspannend vernetzten Digitalcomputer.
Die Funktion des Archivs ist eine unmögliche. Der Aufgabe, die Archivalien zu bewahren, indem man sie vor dem zerstörerischen Zugriff ihrer Nutzer bewahrt, ist unvereinbar mit der Aufgabe, die eingelagerten Materialien allgemein zugänglich zu machen. Digitale Datenhaltung könnte die Lösung des archivarischen Dilemmas sein, sie ermöglicht so gut wie verlustfreies kopieren und vervielfältigen von Daten. Die sich daraus ergebenden Ewigkeits-Vorstellungen zum Digitalen, legen den Schluß von »digital« auf »Archiv« nahe. Es ist allerdings, um die Pointe vorwegzunehmen, ein Kurz-Schluß, ein Phantasma und kein technisches Faktum, um das es hier geht. Das Digitale, wir werden es noch sehen, ist ein archivarischer Albtraum, und zwar aus vielerlei Gründen, die im Folgenden zur Sprache kommen sollen.
Entlang des Schemas aus den Begriffen Synthese, Mimesis und Emergenz, die auch immer als historische Kategorien begriffen werden, indem sie mit Epochen der Computertechnik parallel laufen, längs dieser Triade soll nun die Kunst zur Sprache kommen. Synthetisch ließen sich die frühen Computergraphiken und die stochastisch fundierten musikalischen Stilübungen Lejaren Hillers erzeugen; mimetischen Verfahren der Vor- und Nachahmung kommt man bei der interaktiven Medienkunst auf die Spur; vernetzt lassen sich künstlerische Experimente auf die Emergenzen des Sozialen ein.
Es dauert nicht mehr lange, dann wird es schwer werden, einen Computer zu fassen zu bekommen, geschweige denn, sich seiner mittels Handgreiflichkeiten zu entledigen. Die Autoren des einschlägigen Buchs über das Quantencomputing »The ultimate zero and one«, Colin Williams und Scott Clearwater, drücken das so aus: »Computers are starting to disappear before our very eyes by becoming part of the fabric of our world.«
Die schiere Quantität ist hier von zentralem Belang – als würde Engels’ ›Dialektik der Natur‹ wieder ihr Haupt aus dem gewiß geglaubten Grabe erheben und erneut fröhlich Quantität in Qualität umschlagen lassen. Es geht um obere und untere Grenzen von Informationsclustern, um die Frage also auch, ob dem Immer-Mehr nicht doch irgendwelche Grenzen gesetzt sind.
Interaktivität stellt fürr Virtualität eine notwendige Bedingung dar, denn zur subjektiven Konstruktion einer Realitätt aus computererzeugten Sinnesdaten muss sich die Feedback-Schleife aus Handlung, Wahrnehmung und darauf reagierender erneuter Handlung eng schließen. Der Text beleuchtet aus Sicht der Kulturinformatik die technikgeschichtlichen und kunsttheoretischen Zusammenhänge zweier Begriffe, die zentral sind für den Diskurs um und die Verortung von interaktiver Computerkunst.
We analyze the optimal dynamic scale and structure of a two-sectoreconomy, where each sector produces one consumption good and one specific pollutant. Both pollutants accumulate at di_erent rates to stocks which damage the natural environment. This acts as a dynamic driving force for the economy. Our analysis shows that along the optimal time-path (i) the overall scale of economic activity may be less than maximal; (ii) the time scale of economic dynamics (change of scale and structure) is mainly determined by the lifetime of pollutants, their harmfulness and the discount rate; and (iii) the optimal control of economic scale and structure may be non-monotonic. These results raise important questions about the optimal design of environmental policies.
Die Industriebetriebe erwirtschaften knapp ein Viertel des deutschen Bruttoinlandsprodukts. Der Monatsbericht für Betriebe des Verarbeitenden Gewerbes sowie des Bergbaus und der Gewinnung von Steinen und Erden stellt für diese Betriebe eine Reihe wichtiger Daten bereit. Seit Ende 2006 ist dieses Datenmaterial, aufbereitet als Panel für die Jahre 1995 bis 2004 (und für 1995 bis 2002 ergänzt um die Angaben industrieller Kleinbetriebe), für ganz Deutschland in den Forschungsdatenzentren der Statistischen Ämter für Wissenschaftler zugänglich. Dieser Beitrag zeigt an drei Beispielen die Forschungspotenziale dieser Paneldaten für die Aufdeckung von empirischen Fakten, die statistische Überprüfung von theoretischen Hypothesen und die wissenschaftliche Politikberatung auf.
Die Biotechnologie, identifiziert als eine der strategischen Zukunftstechnologien, ist gekennzeichnet durch eine hohe Forschungsintensität mit breiten Anwendungsfeldern. Nach einer seit 2001 andauernden Konsolidierungsphase steht die Branche gegenwärtig vor neuen Herausforderungen: der EU-Osterweiterung sowie der massiv vorangetriebenen Technologiepolitik in den Schwellenländer Indien und China. Einerseits entstehen durch die Integration dieser Wachstumsmärkte neue Forschungs-, Produktions- und Absatzmöglichkeiten, andererseits birgt der steigende Wettbewerbsdruck ein nicht unwesentliches Risiko für die junge deutsche Branche. Der vorliegende Beitrag setzt die Ergebnisse einer 2006 durchgeführten Online-Befragung deutscher BT-Unternehmen in direkten Bezug zur niedersächsischen BT-Industrie. Im zweiten Schritt wird die Analyse durch numerische Simulationen der EU-Erweiterung 2004 im Rahmen der so genannten New Economic Geography ergänzt. Die Analysen zeigen eine Verlagerungstendenz der Biotechnologiebranche in die europäische Peripherie. Diese Tendenz wird jedoch aufgrund von Infrastruktur- und Faktormarktrestriktionen gravierend gedämpft.
Diese Studie untersucht mit Hilfe eines neu verfügbaren Datensatzes aus Prozessdaten der Bundesagentur für Arbeit, der Stichprobe der integrierten Erwerbsbiographien, die Wirkung einer verpflichtenden Beschäftigungsquote für schwerbehinderte Arbeitnehmer in Deutschland. Wir nutzen die exogene Senkung dieser Quote durch die Einführung des „Gesetzes zur Bekämpfung der Arbeitslosigkeit Schwerbehinderter“ als natürliches Experiment und schätzen die Änderung in der Wahrscheinlichkeit einer Beschäftigungsaufnahme durch regressionkorrigierte Difference-in-Difference-Schätzer. Unsere Ergebnisse legen nahe, dass die Änderung der Beschäftigungsquote die Beschäftigungschancen von Schwerbehinderten weder verbessert noch verschlechtert hat.
This paper contributes to the flourishing literature on exports and productivity by using a unique newly available panel of exporting establishments from the manufacturing sector of Germany from 1995 to 2004 to test three hypotheses derived from a theoretical model by Hopenhayn (Econometrica 1992): (H1) Firms that stop exporting in year t were in t-1 less productive than firms that continue to export in t. (H2) Firms that start to export in year t are less productive than firms that export both in year t-1 and in year t. (H3) Firms from a cohort of export starters that still export in the last year of the panel were more productive in the start year than firms from the same cohort that stopped to export in between. While results for West Germany support all three hypotheses, this is only the case for (H1) and (H2) in East Germany.
This paper uses data from the German Socio-Economic Panel for the years 2000 to 2005 to study the earnings differential between self- and dependent employed German men. Constructing a counterfactual earnings distribution for the self-employed in dependent employment and using quantile regression decompositions we find that the earnings differential over the distribution cannot be explained by differences in endowments. Furthermore, low-earning self-employed could earn more in dependent employment. Finally, the observed earnings advantage for the self-employed at the top of the earnings distribution is not associated with higher returns to observable variables.
Dieses Papier präsentiert deskriptive Evidenz zur Struktur von Ich-AG-Gründungen und Gründern aus dem Arbeitsagenturbezirk Lüneburg. Die Ergebnisse basieren auf einer Befragung aller Gründer, die zwischen Juni 2004 und Februar 2005 selbstständig geworden sind und von der Arbeitsagentur Lüneburg gefördert wurden.
This paper analyzes, within a regional growth model, the impact of productive governmental policy and integration on the spatial distribution of economic activity. Integration is understood as enhancing territorial cooperation between the regions, and it describes the extent to which one region may benefit from the other region’s public input, e.g. the extent to which regional road networks are connected. Both integration and the characteristics of the public input crucially affect whether agglomeration arises and if so to which extent economic activity is concentrated: As a consequence of enhanced integration, agglomeration is less likely to arise and concentration will be lower. Relative congestion reinforces agglomeration, thereby increasing equilibrium concentration. Due to the congestion externalities, the market outcome ends up in suboptimally high concentration.
Recent discussions about the evolvement of nanotechnologies criticize that the notion ‘risk’ is too abstract and an all-inclusive category. Moreover, the concept of risk is not precise enough to describe the potential issues related to the development of nanotechnologies. Instead, experts of technological development speak more about risk communication. Within the field of nanotechnologies, they even redefined this expression in February 2005 and related it to the question of the societal acceptance of nanotechnologies. Risk communication is about to gain stakeholder acceptance of policy decisions, whereas public and stakeholders are encouraged to participate actively in the communication process through public consultations, hearings, etc. Thus on the one hand, the category of risk has been pragmatically nuanced in order to better highlight the vulnerability of the communication on nanotechnologies. On the other hand, this vulnerable communication is not the result of a deficit of information. It is based on the idea of participation, where the vulnerability relies on the social groups specialized in the design, the application, and the diffusion of nanotechnologies within society. How is this participation possible, and what does it mean? We develop this question in the framework of a comparative survey on experts that are involved in the deployment of nanotechnologies in Grenoble (France) and Hamburg (Germany).
Die Arbeit, von der die Rede sein soll, ist keine historische und keine philologische, sondern eine mediale. Wir haben vor vielen Jahren eine mediale Transformation an der Großen Ebstorferin vorgenommen, eine vom Pergament auf den Computerbildschirm, und dabei eine Zeitspanne der Medientechnik von 700 Jahren überbrückt, dabei die Ära des Buches übersprungen, die so stark unsere heutige Kultur geprägt, vielleicht besser: hervorgebracht, hat.
Wie viele andere Anregungen, so ist auch das Thema »Zeitpfeil« im Gespräch mit Claus Pias entstanden. Irgendwie sind wir auf das Thema gestoßen, inwieweit und ob Computer Maschinen mit Geschichte sind, ob reversibel oder nicht. Meine Physiker-Antwort, dass sie natürlich nicht-reversibel sind, weil sie bei der Arbeit warm werden, also Energie dissipieren, hat mich dann selbst nicht befriedigt, und so kam es, danach zu fragen, welche Arten von Entwicklung, welche Gesetzmäßigkeiten oder Zufälligkeiten benennbar sind, die der digitalen Informationstechnik einen Zeitpfeil, ein Jetzt, Zuvor und ein Danach geben.
Zweifellos gibt es fruchtbare Blickwinkel, unter denen Computermedien im Prozeß einer Sinnproduktion zu betrachten sind. Gerade wegen ihrer semantischen Enthaltsamkeit nämlich – zu der noch mehr und Weiteres zu sagen sein wird – wegen ihrer semantischen Abstinenz also sind Computer überaus wirksam bei der Errichtung symbolischer Ordnungen, treten sie als Apparate und Medien bei der Errichtung von Wissensordnungen in Erscheinung, die ohne sie nicht existieren würden.
Reviewing the development of network access charges in the German electricity market since 2002 reveals significant variation. While some firms continually increased or decreased their access charges, a variety of firms exhibited discontinuous behavior with price changes in both directions. From an economic viewpoint this price setting turbulence is astonishing because grid operators are non-contestable natural monopolists, which in this time period were regulated by Negotiated Third Party Access (NTPA). Depending on the effectiveness or ineffectiveness of NTPA, expected behavior would be either regulated average cost prices or monopoly prices, but not the observed turbulence. Although in 2005 NTPA scheme was replaced by a Regulated Third Party Access (RTPA) scheme with a regulator, an analysis of the factors influencing the price setting behavior within this period offers valuable information for the new regulator and the still discussed new incentive regulation, which is expected to start in 2009. Using multivariate estimations based on firm data covering the years 2000-2005, we test the hypotheses that asymmetric influence of regulatory threat, different cost and price calculation knowledge, strategic use of structural features and the obligation to publish specific access charges have influenced the electricity network access charges in Germany.
Agro-biodiversity can provide natural insurance to risk averse farmers. We employ a conceptual ecological-economic model to analyze the choice of agrobiodiversity by risk averse farmers who have access to financial insurance. We study the implications for individually and socially optimal agro-ecosystem management and policy design when on-farm agro-biodiversity, through ecosystem processes at higher hierarchical levels, generates a positive externality on other farmers. We show that for the individual farmer natural insurance from agro-biodiversty and financial insurance are substitutes. While an improved access to financial insurance leads to lower agro-biodiversity, the e_ects on the market failure problem (due to the external benefits of on-farm agro-biodiversity) and on welfare are determined by properties of the agro-ecosystem and agro-biodiversity’s external benefits. We derive a specific condition on agro-ecosystem functioning under which, if financial insurance becomes more accessible, welfare in the absence of regulation increases or decreases.
Der weltweite Energieverbrauch nimmt stetig zu. Statistiken zeigen, dass ein wesentlicher Anteil dieses Anstiegs nicht von der Industrie ausgeht, sondern auf Privathaushalte und öffentliche Einrichtungen zurückzuführen ist. Die Anzahl der elektrischen Verbraucher in einem durchschnittlichen Privathaushalt steigt. Es wird für den Menschen schwieriger zu beurteilen, was in seiner persönlichen Umgebung welche Menge Energie verbraucht. Diese Mannigfaltigkeit an Verbrauchern manuell im Sinne eines effizienten Umgangs mit Energie zu managen ist kaum möglich. In dieser Arbeit wird ein System skizziert, welches es einem Gebäude erlaubt seine Energieströme in autonomer Weise selbst zu verwalten. Ein hochdynamisches Netz verteilter Netzwerkknoten soll in der Lage sein, elektrische Verbraucher entsprechend den Bedürfnissen der Benutzer zu verwalten mit dem Ziel, den Gesamtenergiebedarf des Netzes zu minimieren. Es ist eine besondere Herausforderung, dass in diesem Netzwerk gleichberechtigter Knoten auf Grund von technischen Randbedingungen kein Knoten globales Wissen über das Gesamtnetzwerk akkumulieren kann. Für diese Optimierungsaufgabe wurde die Ant Colony Optimization (ACO) ausgewählt. Damit innerhalb des hochdynamischen Netzwerks eine Optimierung nur auf Basis der lokalen Informationen der Netzteilnehmer durchgeführt werden kann, wird eine angepasste ACO Variante, das das Asynchronous Ant System, eingeführt. Diese Arbeit stellt eine Java-basierte Simulation des AAS Algorithmus im verteilten Netz sowie eine ANSI C Implementierung des AAS Systems auf einer Embedded Plattform vor. Es zeigt sich, dass es mit Hilfe des AAS möglich ist, Optimierungsaufgaben im verteilten Netz zu lösen.
Die vorliegende Diplomarbeit ist im Rahmen eines Praxissemesters bei der Hermes Warehousing Solutions GmbH (HWS) entstanden. Sie beschäftigt sich mit den besonderen Anforderungen an den Vertriebsprozess für beratungsintensive Dienstleistungen.
This paper aims to determine if the contingent valuation method (CVM) can provide valid results useful in policy-making. This will be investigated by using a CV study that captures the willingness to pay (WTP) for the municipal cultural supply in Lueneburg, Germany. In contrast to previous CV studies that included a wide range of descriptive statistics, the empirical analysis of the current study focuses on multivariate analysis to explore the factors associated with the WTP. The results reflect current hypotheses in cultural economics. Thus, higher education levels and higher income are positively correlated with higher WTP. While the results indicate a highly significant impact of non-use values on the WTP for cultural goods across the different regression models, the findings for some variables differ considerably in magnitude across different regression models.
Gemäß Betriebsverfassungsgesetz müssen in Deutschland Betriebe ab einer bestimmten Größe Betriebsräte von ihrer beruflichen Tätigkeit freistellen. Anhand einer Vollerhebung aller betroffenen Betriebe wird in dieser Arbeit der Frage nachgegangen, ob die (mit Kosten verbundene) Freistellung des ersten Betriebsratsmitglieds eine bremsende Wirkung auf die Beschäftigungsdynamik von Betrieben hat. Weiterhin wird untersucht, ob die im Juli 2001 erfolgte Herabsetzung des Schwellenwerts von 300 auf 200 Arbeitnehmer zu einer Veränderung des Beschäftigungswachstums von Betrieben an diesen Schwellen geführt hat. Sowohl deskriptive als auch die ökonometrische Analysen deuten darauf hin, dass weder die alte noch die neue Freistellungsschwelle einen Einfluss auf das Beschäftigungswachstum von Betrieben hatte. Gleiches gilt für die gesetzliche Änderung des Schwellenwerts.
Die vorliegende Längsschnittuntersuchung der BA-geförderten Gründungskohorte des zweiten Halbjahres 2003 im Agenturbezirk Uelzen vergleicht mittels einer schriftlichen Befragung drei Jahre nach Gründungsbeginn schwerpunktmäßig ÜG- und ExGZ-Gründungen hinsichtlich erfolgsbezogener Merkmale. Zusätzlich werden die im Rahmen der Befragung erhobenen Informationen zur Gründungsmotivation, Gründungsvorbereitung, den finanziellen Rahmenbedingungen und der Bedeutung bestimmter Förderbedingungen für die Gründer ausgewertet. Bei einer Rücklaufquote von ca. 19 Prozent liegen 32 verwertbare ÜG- und 43 ExGZ-Fragebögen vor. Zur Überprüfung der Unterschiede von ÜG- und ExGZ-Gründungen werden T-Tests genutzt. Die Ergebnisse bestätigen erneut das Vorliegen einiger signifikanter Unterschiede zwischen ÜG- und ExGZGründungen.
Strong sustainability, according to the common definition, requires that different natural and economic capital stocks have to be maintained as physical quantities separately. Yet, in a world of uncertainty this cannot be guaranteed. To therefore define strong sustainability under uncertainty in an operational manner, we propose to use the concept of viability. Viability means that the different components and functions of a dynamic, stochastic system at any time remain in a domain where the future existence of these components and functions is guaranteed with sufficiently high probability. We develop a unifying and general ecological-economic concept of viability that encompasses the traditional ecological and economic notions of viability as special cases. It provides an operational criterion of strong sustainability under conditions of uncertainty. We illustrate this concept and demonstrate its usefulness by applying it to livestock grazing management in semi-arid rangelands.
In dieser Diplomarbeit ist die Entwicklung eines Software-Tools zur Erzeugung von Datenpunkten in einem Prozessvisualisierungssystem beschrieben. Die Software beschränkt sich zum einen auf die iFIX TM als Visualisierungssoftware und zum anderen auf Visual Basic for Application als Programmiersprache. Mit Hilfe von diesem Tool werden alle nötigen Tags sowohl in der Datenbank als auch im OPC-Client von iFIX TM erzeugt. Die Erzeugung dieser Tags ist auf die Standardelemente begrenzt. Die Erstellung dieser Verknüpfungen soll mit möglichst wenig Wissen über die Anlage selbst und über den vor Ort herrschenden Standard erfolgen. Zusätzlich soll die Bedienung des Tools intuitiv und praxisnah sein. Die entwickelte Anwendung soll in den von der GEA TBS gebauten Anlage eingesetzt werden, um dem Anwender des Programms das Verknüpfen von neuen Bauteilen in einem bestehenden Prozessvisualisierungssystems zu erleichtern und dadurch Entwicklungszeit zu sparen.
Empirische Befunde zeigen, dass exportierende niedersächsische Industriebetriebe produktiver als vergleichbare nicht exportierende Betriebe sind, wobei diese Unterschiede bereits vor dem Exportstart bestehen (also eine Selbstselektion der produktiveren Betriebe auf Exportmärkte stattfindet), während es für Lerneffekte im Zusammenhang mit Exportaktivitäten und daraus folgendem höherem Produktivitätswachstum in exportierenden Betrieben keine Evidenz gibt. Mit neu verfügbaren Paneldaten für deutsche Industriebetriebe und auf der Grundlage der Ergebnisse einer neuen international vergleichenden Studie zeigt dieser Beitrag, dass die Produktivitätsprämie in Niedersachsen so hoch wie im Durchschnitt für den Rest von Westdeutschland, aber höher als für Ostdeutschland ist. Niedersachsen nimmt im internationalen Vergleich damit einen Mittelplatz unter den hier betrachteten Ländern ein. Ein interregionaler bzw. internationaler Vergleich der Größenordnungen der Selektions- und Lerneffekte ist hier allerdings nicht möglich. Zwar zeigt eine Gegenüberstellung der Ergebnisse für Niedersachsen mit denen für das übrige West- bzw. für Ostdeutschland und mit den übrigen EU-Ländern in den meisten Fällen ein Bild ähnlich wie für Niedersachsen, aber die Gruppen der Starter umfassen dabei in der Regel nur wenige Firmen, und die geschätzten Koeffizienten sind sehr häufig statistisch insignifikant, so dass ein quantitativer Vergleich nicht möglich ist.
The paper demonstrates how the E–stability principle introduced by Evans and Honkapohja can be applied to models with heterogeneous and private information in order to assess the stability of rational expectations equilibria under learning. The paper extends already known stability results for the Grossman and Stiglitz model to a more general case with many differentially informed agents and to the case where information is endogenously acquired by optimizing agents. In both cases it turns out that the rational expectations equilibrium of the model is inherently E-stable and thus locally stable under recursive least squares learning.
This paper examines whether the labor market prospects of Arab men in England are influenced by recent Islamistic terrorist attacks and the war on Iraq. We use data from the British Labour Force Survey from Spring 2001 to Winter 2006 and treat the terrorist attacks on the USA on September 11th, 2001, the Madrid train bombings on March 11th, 2004 and the London bombings on July 7th, 2005, as well as the beginning of the war on Iraq on March 20th, 2003, as natural experiments possibly having led to a change in attitudes toward Arab or Muslim men. Using treatment group definitions based on ethnicity, country of birth, current nationality, and religion, evidence from regression-adjusted di_erence-in-di_erences-estimators indicates that the real wages, hours worked and employment probabilities of Arab men were unchanged by the attacks. This finding is in line with prior evidence from Europe.
In der öffentlichen Diskussion in Deutschland wird häufig die These vertreten, dass Arbeitsplätze vorwiegend in kleinen und mittleren Firmen geschaffen werden, während die großen Firmen vor allem Arbeitsplätze abbauen. Eine empirische Überprüfung für den Zeitraum 1999 bis 2005 mit Daten aller west- und ostdeutschen Betriebe, die mindestens einen sozialversicherungspflichtig Beschäftigten haben, zeigt, dass die These vom alleinigen „Jobmotor Mittelstand“ viel zu undifferenziert ist. In mittelständischen Unternehmen werden zwar überproportional viele Arbeitsplätze geschaffen, aber auch überproportional viele abgebaut. Großbetriebe mit 250 und mehr Beschäftigten weisen dagegen sowohl bei der Schaffung als auch beim Abbau von Arbeitsplätzen geringere Werte auf als es ihrem Beschäftigungsanteil entspräche. Wirtschaftspolitische Maßnahmen, die sich an der Zuordnung eines Unternehmens zu einer Größenklasse orientieren, lassen sich somit nicht mit einem besonders ausgeprägten Beitrag der Firmen aus dieser Größenklasse zum Beschäftigungswachstum rechtfertigen.
In this paper, we conduct a pan-European efficiency analysis to investigate the performance of European railways with a particular focus on economies of vertical integration. We test the hypothesis that integrated railways realize economies of scope and, thus, produce railway services with a higher level of efficiency. To determine whether joint or separate production is more efficient, we apply a Data Envelopment Analysis super-efficiency bootstrapping model which relates the efficiency for integrated production to a reference set consisting of separated firms which use a different production technology. We find that for a majority of European railways economies of scope exist.