You are in the main area:Organization
Headerimage for: Seminarreihe "Gedanken zur Information"

Seminarreihe "Gedanken zur Information"

War die Bedeutung des Computers in den sechziger Jahren des 20-ten Jahrhunderts auf einzelne Bereiche und Disziplinen wie das Militär, Administration und Berechnung einzelner großer Strukturen begrenzt, stellt er heute ein das tägliche Leben dominierendes Werkzeug dar. Produkte des Alltags wie Uhren, Mobiltelefone, Waschmaschinen, Autos, Fernseher werden durch Computer gesteuert, Entwicklung dieser Produkte wird mit Computern realisiert,  zur Planung privater und öffentlicher Vorhaben dienen sie. Filme, die an sich bereits fiktiven Charakter haben, werden inzwischen auf Computern produziert. „Second Life“ tritt in Konkurrenz zum „tatsächlichen“, Facebook vermittelt weltweit Beziehungen, keine gedankliche Arbeit ohne Google und Wikipedia. Militärische Schlachtfelder werden mit Computern entworfen und durchgespielt, Computer helfen bei der Umsetzung. Wurden wesentliche physikalische Grundgleichungen im 18-ten und 19-ten Jahrhundert entdeckt und entwickelt, so damals als Prinzipien, die systematische Einsichten erlaubten. Heute werden sie berechenbar, ihre Lösungen ersetzen den greifbaren Gegenstand.

Was bedeutet diese Entwicklung für die Wahrnehmung, die Wünsche und Ziele,  das Denken und das Handeln der Menschen?

Ziel des Seminars  ‚Gedanken zur Informatik‘   ist ein besseres Verständnis der Veränderung des menschlichen Denkens und sozialer und Kommunikations- Strukturen bei der Berührung mit den Formalismen und den Produkten der praktischen Informatik.

Die Seminarreihe soll besonders Studenten und Mitarbeiter im technischen Umfeld ansprechen, Vertreter anderer akademischer Richtungen sind herzlich willkommen;  es sollen die Fundamente eines wechselseitigen Verständnisses gelegt werden.

Michael Resch, Uwe Küster 

 

8.7.2014

________________________________________________________________________

Dr. phil. Dipl-Ing. Claus Baumann: "Technologie und gesellschaftliche Arbeit"

 

Der Blick auf technologische Entwicklungen weckt Hoffnungen, schürt aber auch Ängste. Sind wir Herren oder Sklaven der Technik? Bestimmt die Entwicklung der Technologie die Dynamik der Gesellschaft oder verhält es sich genau umgekehrt? Die einschätzenden Antworten auf solcherlei Fragen variieren in der Regel schon allein deshalb, weil ihnen verschiedene Verständnisse von Technik zugrunde liegen. Die Worte »Technik« und »Technologie« werden notorisch vielfältig verwendet. Dies wirkt sich sowohl auf terminologische Bestimmungen von technischen Artefakten aus, als auch auf die Einschätzungen über den Zusammenhang von Technik und Gesellschaft: Ist der Computer nun ein Instrument, eine Maschine oder ein Medium? Leben wir in einer hochtechnologischen Industrie-, in einer Informations- oder in einer Wissensgesellschaft?

Im Vortrag wird die These vertreten, dass eine formbegriffliche Reflexion der gesellschaftlichen Arbeit über die Verschiedenartigkeit der Bestimmungen von Technik und Technologie sowie über die jeweiligen Einschätzungen bezogen auf die Gesellschaft Aufschluss geben kann. Diese werden als verschiedene -- teils berechtigte, teils vereinseitigte -- Perspektiven rekonstruiert, die jeweils auf bestimmte Momente und Entwicklungstendenzen der gesellschaftlichen Arbeit, ihrer Mittel, ihrer Medien und ihrer Organisation in spezifischer Weise reagieren.

Ort: HLRS, Nobelstr. 19, 70569 Stuttgart (Campus
Vaihingen) in Raum 1.067 ("Medienlabor").

 

 

5.6.2014

____________________________________________________________________

Prof. Dr. Wolfgang Hesse: "Ontologie und Weltbezug"

 

Ontologie versteht sich als die Lehre vom "Seienden" – damit scheint ihr Weltbezug klar: Alles /was/ /ist/, ist – zumindest bei wörtlicher Auslegung – Gegenstand der Ontologie. Damit wird diese zur Universallehre /par excellence/ und – sofern man will – zur Urquelle aller Philo­sophie. Trotzdem hat sie keineswegs immer im Mittelpunkt der Philosophie gestanden und außerhalb der Philosophie wurde sie noch bis vor kurzem eher einer esoterisch-weltfremden Sphäre zugerechnet.

Es brauchte erst die neu aufkommende Techno-Wissenschaft Informatik, um den Begriff /Onto­­logie/ wiederzube­leben- allerdings auf Kosten ihrer ursprünglichen Ausrichtung und mit einer radikalen Neudefinition und veränderten Zielrichtung. War die klassisch-philosophische Ontologie eine vorwiegend /deskriptive/, auf die existierende Welt, ihre Ursprünge und Hin­tergründe gerichtete und damit vorwiegend /metaphysische/ Denkschule, so ist die neue, "infor­ma­tische" Ontologie fast ausschließlich der materiellen Existenz verhaftet und zielt vielfach auf /präskrip­tive/ Festlegungen und Be­schreibungen, die sich an künftigen möglichen, zu kon­struierenden (Teil-) Welten orientieren. Die neue Ontologie ist also eine "/physische/" und beschreibt eher das /So-sein-Sollende/ als das /Seiende./

In diesem Beitrag werden die Denkansätze und Zielrichtungen der beiden um Ontologie krei­senden Disziplinen – der Philosophie und der Informatik – beleuchtet und einige ihrer Ge­mein­samkeiten und Gegensätze herausgearbeitet.

Am Schluss soll es auch um RFID-chips und solcherart "verdrahtete Ontologien" gehen.

Ort: HLRS, Nobelstr. 19, 70569 Stuttgart (Campus
Vaihingen) vorauss. in Raum 1.067 ("Medienlabor").

 

 

30.1.2014

___________________________________________________________________________

 

apl. Prof. Dr. Klaus Wiegerling  " 'Augmented Reality' und die Frage nach der Wirklichkeit – Ethische Grundprobleme in intelligenten Umgebungen"

 

Abstract Die fundamentalen ethischen Fragen der Ambient Intelligence betreffen die Bedingungen des ethischen Diskurses, d.h. die Identität des Handlungssubjekts, die Bestimmung der Wirklichkeit, in die wir handelnd einwirken sollen, sowie die Frage nach der Wahl, die Voraussetzung ist, wenn wir etwas verantworten sollen. Eine „Augmented Reality“ verstärkt das Problem des Verlustes der Widerständigkeit und des Horizontes, die Wirklichkeit charakterisieren . Es ist allein der materielle (hyletische), sondern auch die soziale und den ideelle Widerstand gegen meinen Formwillen, der  Wirklichkeit garantiert, nicht das einzelne konkret gegebene Realitätsstück, insofern dessen Wahrnehmung, wie bei einer Fahrt im Nebel, immer auch Fehleinschätzungen unterliegt. Das alte Paradigma einer in soziale und tradierte Handlungsmuster eingebetteten Technologie gelangt in intelligenten Umgebungen an einen kritischen Punkt, wenn smarte Systeme für uns die Welt Formen ohne die Möglichkeit einer Kontrolle und einer individuellen Steuerung. Autonome Systeme haben ein Potential den Nutzer zu entmündigen.

Prof. Dr. Wiegerling ist wissenschaftlicher Mitarbeiter am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am KIT. 

Der Vortrag findet am HLRS, Nobelstr. 19, 70569 Stuttgart (Campus
Vaihingen) in Raum 1.067 ("Medienlabor") statt.

18.12.2013

________________________________________________________________________

JP Dr. Ulrike Pompe-Alama "Der 'Creator-User-Gap': was müssen wir wirklich über IT wissen?"

 

Abstract Eine schon etwas in die Jahre gekommene Beobachtung aus technikphilosophischer Perspektive - nämlich die  Feststellung, dass neue Technologien zwar im Laufe ihrer Etablierung stets größere Akzeptanz und Anwendungsbereiche finden, die Kompetenz der Benutzer aber in Bezug auf das Verständnis der eigentlichen Funktionsweise der Technologie (man denke hier an Radio, Fernseher, Autos… und eben Computer) im gleichen Maße abzunehmen scheint -  wird aus philosophischer Perspektive mit Blick auf Computersimulationen wieder diskussionswürdig.
Welche Konsequenzen zieht es nach sich, wenn Entscheidungsträger in Politik und Management auf Computersimulationen zurückgreifen, ohne unter Umständen deren Reichweite und Grenzen zu kennen? Welche Aufklärungspflicht besteht von Seiten der Experten?
Brauchen wir eine Ethik der IT?"

 

Frau Dr. Ulrike Pompe-Alama ist Juniorprofessorin am Institut für Philosophie / im Exzellenzcluster "SimTech" an der Universität Stuttgart.

Der Vortrag findet am HLRS, Nobelstr. 19, 70569 Stuttgart (Campus
Vaihingen) in Raum 1.067 ("Medienlabor") statt.

 

 

4.12.2013

_______________________________________________________________

Dr. Eckhart Arnold:  "Die Verführerische Kraft von Zahlenspielen. Warum Simulationen nicht mit Experimenten verwechselt werden sollten."

Mittwoch, 4.12.2013 14.00Uhr / HLRS, Nobelstr. 19, 70569 Stuttgart (Campus Vaihingen) in Raum 1.067 ("Medienlabor") statt.

"Computersimulationen sind ein extrem leistungsfähiges Mittel der
/theoretischen /Forschung. Aufgrund ihrer Durchführungsweise, die
Experimenten äußerlich oft ähnlich ist (kontrollierte Bedingungen,
Möglichkeit gezielter Interventionen, "Beobachtung" von Resultaten), werden sie zuweilen als quasi-experimentelle Methode oder als ein "dritter Weg" zwischen Theorie und Experimenten verstanden. Tatsächlich gelten für Computersimulationen aber genau dieselben Erkenntnisschranken wie für Theorien und Gedankenexperimente. Insbesondere können sie keine Erkenntnisse liefern, die über den deduktiven Abschluss unseres Vorwissens hinaus führen.

In den Sozialwissenschaften hat dieses Missverständnis teils verheerende Folgen gehabt. So hat z.B. die Simulationsforschung zur "Evolution der Kooperation" nach 30 Jahren kein einziges erfolgreiches empirisches Anwendungsbeispiel irgendeines ihrer Simulationsmodelle vorzuweisen. Naive Technikgläubigkeit verstellt hier den Blick auf die Wirklichkeit."

 

 

 

02.02.2012

 


Prof. Dr. Petra Gehring ist Professorin für Philosophie an der TU Darmstadt.

 

02. Februar 2012 um 17:00 Uhr HLRS, Medialab, Nobelstr. 19, 70569 Stuttgart. 

Abstract: 

Der Vortrag untersucht, wie informatische Lösungen Sozialformen nicht nur abbilden, sondern auch Verhaltensräume entwerfen. Die Stichworte?Schwarm?, ?Kunde? und ?Rolle? stehen für drei typische solche Formen: Sie werden vorgestellt und in ihren unausgesprochenen Voraussetzungen kritisch ausgeleuchtet. These des Vortrags ist, dass diese Formen äußerst unterschiedlich sind. In vielem sogar unvereinbar.

 

 

 

01.02.2012

 


Dr. Sonja Palfner, Technische Universität Berlin, sonja.palfner[at]tu-berlin.de; www.escience-interfaces.net

 

01. Februar 2012 um 15:00 Uhr HLRS, Medialab, Nobelstr. 19, 70569 Stuttgart. 

Abstract:

Im Rahmen der deutschen D-Grid-Initiative wurde 2004 die erste BMBF-Bekanntmachung „Community-Grids“ und „Grid-Middleware-Integrationsplattform“ veröffentlicht und ab 2005 haben verschiedene „Community“-Projekte, u. a. C3-Grid, MediGrid, HEP Grid, und das sogenannte D-Grid-Integrationsprojekt (DGI) ihre durch das BMBF geförderten Arbeiten aufgenommen (Überblick über die Projekte etwa unter www.d-grid.de). 

 

Ziel der D-Grid Initiative war, wie im F&E-Rahmenprogramm zu lesen ist, nicht weniger als eine „tiefgreifende Verbesserung der wissenschaftlichen Leistungsfähigkeit und Qualität durch gemeinschaftliche Entwicklung und gegenseitige Öffnung von Arbeitsverfahren, Software, Datenbeständen, Rechnern und Großgeräten auf der Grundlage eines schnellen Kommunikationsnetzes“ (D-Grid-Initiative 2004: 3). Hervorgehoben wurden die Ermöglichung einer de-lokalisierten und auch fachübergreifenden Nutzung von IT-Ressourcen aller Art (Speicher, Daten, Services etc.) und eine damit einhergehende Befreiung des Forschenden „von informationstechnischen und administrativen Aufgaben […], damit er sich wieder stärker seinen eigentlichen wissenschaftlichen Problemen zuwenden kann“ (Schwiegelshohn 2005: 23).

 

Mit dem aktuellen Auslaufen der projektförmigen Förderungen durch das BMBF scheint mir ein guter Zeitpunkt gekommen zu sein, um einen sozialwissenschaftlich informierten Blick auf die Entwicklungen der letzten Jahre zu wagen. Grid, so die zu entfaltende These, ist eben mehr als eine Technologie – Grid ist auch eine Art Versammlungsort (neuer) Konstellationen der Macht im wissenschaftlichen Gefüge. Nun wird es mir nicht darum gehen, die einstigen Versprechen (Revolution, Paradigmenwechsel) mit dem Erreichten zu konfrontieren und abzugleichen. Vielmehr möchte ich im Vortrag die sozialen Dimensionen der Grid-Technologieentwicklung jenseits technikdeterministischer Lesarten zum Untersuchungsgegenstand machen, wobei der Schwerpunkt meiner Betrachtung auf der Entwicklung der Organisation von Wissenschaft und auf der Frage nach möglichen neuen soziotechnischen Verhältnissen liegen wird. 

Für meine Ausführungen werde ich auf öffentlich zugängliche Dokumente zur D-Grid- Initiative und auf empirisches Material aus meinem aktuellen Forschungsprojekt „E-Science Interfaces“ (siehe www.escience-interfaces.net) über C3-Grid und TextGrid rekurrieren. 

 

Literatur:

BMBF (2004): Bekanntmachung über die Förderung von Forschungsvorhaben auf dem Gebiet „e-Science und Grid-Middleware zur Unterstützung wissenschaftlichen Arbeitens“ im Rahmen der deutschen D-Grid-Initiative, Call 2004: „Community-Grids” und „Grid-Middleware-Integrationsplattform“, www.pt-it.de/pt-in/escience/docs/E-science_Call04_PTIN.pdf [11.11.11]

D-Grid: www.d-grid.de

D-Grid-Initiative (2004): F&E-Rahmenprogramm 2005 bis 2009, grid.desy.de/d-grid/RahmenprogrammEndfassung.pdf [11.11.11]

Schwiegelshohn, Uwe (2005): Middleware, in: Wissenschaftsmanagement (special). Zeitschrift für Innovation, Nr. 1, S. 23., www.pt-it.de/pt-in/escience/docs/WissenschaftsmanagementSpecial.pdf [11.11.11]

 

18.01.2012

 


JP Dr. phil. Ulrike Pompe Institut für Philosophy – Philosophy of Simulation/ Universität Stuttgart

 

18. Januar 2012 16:00 Uhr HLRS, Medienlabor, Nobelstraße 19, 70569 Stuttgart

Abstract:

Der Vortrag widmet sich einigen Überlegungen zur intrinsischen Beziehung zwischen Computerwissenschaften und der Hirnforschung. Hierbei sollen drei Dimensionen betrachtet werden. Zum einen die historische Dimension, die deutlich macht, wie sehr nicht nur unser heutiges Verständnis vom Gehirn als informationsverarbeitendes Organ, sondern inwiefern auch die Überwindung des Behaviorismus von der Entwicklung des Computers abhängt und bedingt worden ist. In zweiter Linie, in der zeitgenössischen Dimension, wird dann ein kurzer Blick auf die aktuelle Wissenschaftslandschaft geworfen, die das Feld der Hirnforschung abdeckt um auf die weitgehende Parallelität von klassischen und computergestützen Forschungsmethoden und Paradigmen zu verweisen, wobei gewissen Schwierigkeiten der Hirn-Computer-Analogie zum Vorschein kommen.  Zum Abschluss, in der prospektiven Dimension, wird die aktuelle Nutzung von computerbasierten Simulationen in der Hirnforschung betrachtet und ein kritischer Blick auf die Möglichkeiten aber auch Grenzen aktueller Projekte, wie etwa des bluebrain-Projekts geworfen. 

 


Wolfgang Brand / Universität Stuttgart

21. Juli 2011 16:30 Uhr HLRS, Medienlabor, Nobelstraße 19, 70569 Stuttgart

 

Von Dächern und Rechnern: Wie der erste Supercomputer nach Stuttgart kam und was man alles damit machen konnte.

 

Abstract:

Wer den Begriff Technikgeschichte hört, denkt häufig an trockene Zahlen, Daten und Fakten, verrostete, verstaubte Maschinen in Museen und Männer in steifen Gehröcken auf alten, vergilbten Schwarzweißphotos. Doch auch die Geschichte des Computers zuhört zur Technikgeschichte. Die ersten Anfänge der elektromechanischen Rechenmaschinen in den zwanziger und dreißiger Jahren des letzten Jahrhunderts bildeten nur die Overtüre für eine stürmische Entwicklung, bei der das Ende noch lange nicht absehbar ist. Unsere heutige Welt ist überall von elektronischen Rechnern durchdrungen und die Technik hat eine Vielzahl der unterschiedlichsten Varianten davon hervorgebracht: Von kleinsten Computern, die in alle möglichen technischen Gerätschaften eingebaut sind, bis hin zu Höchstleistungsrechnern, die eigene Gebäude benötigen, soviel Energie verbrauchen wie ganze Straßenzüge und die technologische Speerspitze dieser ganzen Entwicklung darstellen.

 

Geschichte - und damit auch Technik- und Wissenschaftsgeschichte - bedeutet aber auch Geschichten zu erzählen, Zeugnis abzulegen über Entwicklungen, die erfolgreich und auch weniger erfolgreich waren. Zu berichten, wie einzelne Ideen erblühten und auch wieder verwelkten. Zu zeigen, wie Entwicklungen, die bis heute anhalten, ihren Anfang nahmen und bis in unsere Zeit fortwirken. Darzustellen, wie die Menschen mit technischen Artefakten umgingen, zu was sie gebraucht wurden und welchen Nutzen sie brachten.

 

Dieser Beitrag berichtet davon, wie der erste Höchstleistungsrechner, eine CDC 6600 der Firma Control Data, in den sechziger Jahren nach Stuttgart kam. Wer stieß diese Entwicklung an und warum? Welche Möglichkeiten bot solch eine Maschine, die mehr als fünfzigmal schneller war, als alle bis dahin verfügbaren Computer? Für was wurde sie eingesetzt und wie hat man mit ihr gearbeitet?

Aus dem Kaleidoskop des bereits zur damaligen Zeit vielfältigen Anwendungsspektrums werden die Berechnungen zum Entwurf und Bau des Zeltdachs des Stadions für die Olympischen Spiele 1972 in München herausgegriffen. An ihrem Beispiel wird gezeigt, wie sich der Übergang vom Architekturmodell aus Holz und Draht zur Computerberechnung vollzog. Es wird davon berichtet, wie eine Disziplin, das Vermessungswesen, plötzlich eine - im wahrsten Sinnes des Wortes - tragende Rolle bekam und welche Auswirkungen dies auf andere Disziplinen hatte. Dies sind neue Aspekte, die sich in den Darstellungen zur Entstehung des Zeltdachs in München (noch) nicht finden. Die Stuttgarter Höchstleistungsrechner veränderten also auch schon vor über vierzig Jahren die Welt - und nicht nur heute.

 


Peter Janich / Philipps Universität Marburg

5. Juli 2011 16:00 Uhr HLRS, Medienlabor, Nobelstraße 19, 70569 Stuttgart

"Was ist Information? Informationsbegriffe zwischen Natur- und Geisteswissenschaften"

Das im Alltag, in Technik, Wissenschaften und Philosophie zum Allerweltswort gewordene "Information" ist in seinem Gebrauch mehrdeutig und wird deshalb auf seine unterschiedliche Herkunft aus einer sehr erfolgreichen Technisierung (Nachrichten- und Computer-Technik), aus einer problematischen Naturalisierung (Anwendung in Chemie, Genetik undHirnforschung) und aus einer grundlegenden Kulturalisierung (als sprachliche Kommunikation zwischen Menschen) untersucht. Dabei zeigen sich relative Abhängigkeiten verschiedener Informationsbegriffe untereinander. In einem methodischen Aufbau sind diese so bestimmbar, dass sich Widersprüche zwischen verschiedenen Informationsbegriffen in sinnvolle Mittel-Zweck-Zusammenhänge auflösen lassen.

 


Frau Gabriele Gramelsberger / Freie Universität Berlin

29. Juni 2011 16:00 Uhr HLRS, Medienlabor, Nobelstraße 19, 70569 Stuttgart

Wissenschaftsphilosophische Fragen zum Rechnen in heutiger Zeit

"Zum Wandel der Wissenschaft im Zeitalter des Computers"

 

Abstract:

Seit Immanuel Kant’s Kritik der reinen Vernunft (1787) ist die Wissenschaftsphilosophie vom Umkehrverhältnis von wissenschaftlicher Vernunft und Realität, das Kant als ‚Kopernikanische Revolution der Denkart‘ bezeichnete, fasziniert. In der Einleitung der KrV schreibt Kant, dass die Forscher "die Natur nötigen müssen auf ihre Fragen zu antworten ...“ (Kant 1993: B XIII). Diese ‚Nötigung‘ – die mit der neuzeitlichen Wissenschaft basierend auf Experimenten und mathematisierter Theoriegesetzlichkeit ihren Anfang nimmt – hat sich bis zum Beginn des 20. Jahrhunderts zu einem subtilen, technisch-mathematischen Realismus der Wissenschaft entwickelt. Dabei rationalisiert die Mathematik keine Dinge, sondern Begriffe (z.B. der Kraft, Materie, etc.), indem sie diese auf eigene Weise – als Annäherung von experimentellem und mathematischem Beweis – objektiviert. Beide Beweisformen konvergieren zu Beginn des 20. Jahrhundert und etablieren die Realisierungstechniken der modernen Wissenschaft. Voraussetzung ist der Siegeszug der Zahl, der die Transformation von Raumbegriffe in Zahlenbegriffe und damit die Ablösung anschaulicher Konzepte, aber auch des Endlichen durch das Unendliche (Infinitesimalkalkül) zur Folge hat. Denn diese Transformation der Raumbegriffe in Zahlenbegriffe erst eröffnet die gesamte Mannigfaltigkeiten des mathematischen Möglichkeitsraums.

 

Zur vollen Entfaltung und Erforschung der gesamten Mannigfaltigkeit des mathematischen Möglichkeitsraums bedarf es allerdings des Computers. Der Computer erlaubt es, den technisch-mathematischen Realismus der Wissenschaft weiterzuentwickeln. In dieser Entwicklung nimmt die Computersimulation resp. das Rechnen eine neue Position ein – so die These des Vortrags -, indem das Rechnen nicht nur zur Rationalisierung wissenschaftlicher Begriffe eingesetzt wird, sondern den neuen Spielraum zur Modifikation (Optimierung, Diversifizierung) seiner rationalen Gebilde nutzt, die dann in die Welt entlassen werden. Der technisch-mathematische Realismus gewinnt dadurch eine neue Materialität, die das klassische, an der Physik orientierte Ideal der mathematisierten Theorie und (Mess)- Experimente überschreitet und die Natur nicht nur zu Antworten nötigt, sondern sie grundlegend umgestaltet. Wissenschaft wird zur Technowissenschaft. Beispiele wären hier die Gentechnologie und ihre Entwicklung zur Synthetischen Biologie, aber auch die Synthetische Chemie. Vor diesem Hintergrund ergeben sich verschiedene wissenschaftsphilosophische Fragen zum Rechnen in heutiger Zeit, die zur Diskussion gestellt werden.

 

Literatur

Bachelard, Gaston (1988): Der neue wissenschaftliche Geist 1934, Suhrkamp: Frankfurt.

Bachelard, Gaston (1974): Epistemologie, Suhrkamp: Frankfurt.

Cassirer, Ernst (1910): Substanzbegriff und Funktionsbegriff, Verlag

Bruno Cassirer: Berlin.

Gramelsberger, Gabriele (2010): Computerexperimente. Zum Wandel der Wissenschaft im Zeitalter des Computers, Transcript: Bielefeld.

Gabriele Gramelsberger (Hrsg. 2011): From Science to Computational Sciences. Studies in the History of Computing and its Influence on Today’s Sciences, diaphanes: Zurich/Berlin.

Husserl, Edmund (1996): Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie, Vortrag 1935, Meiner: Hamburg.

Kant, Immanuel (1993): Kritik der reinen Vernunft 1787, Meiner: Hamburg.

Alfred Nordmann: “Collapse of Distance: Epistemic Strategies of Science and Technoscience”, in: Danish Yearbook of Philosophy, 41, 2006: 7-34.

 

 


The limits of computer simulations as epistemic tools

Juan Durán / Universität Stuttgart

HLRS, Medienlabor Zi. 1.067, Nobelstraße 19, 70569 Stuttgart
Mittwoch 01. Juni 2011 15:00 Uhr

Abstract: The use of computers simulations in laboratory practice has turned out to be of central importance for the scientific activity. How is this dependence understood by philosophers? One possible analysis consist of discussing the epistemological payoff of computer simulation. Ironically, current philosophical possitions seems to be stucked in a dilemma that is difficult to solve.

The dilemma of computer simulations centers on the question whether the epistemological payoff of a traditional experiment has greater (or less confidence than a computer simulation. The socalled “materiality problem” is in the basis of this dilemma: “in genuine experiments, the same ’material’ causes are at work in the experimental and target systems, while in simulations there is merely formal correspondence between the simulating and target systems (...) inferences about target systems are more justified when experimental and target systems are made of the ‘same stuff’ than when they are made of different materials (as is the case in computer experiments)” (Parker, 2009 “Does matter really matter? computer simulations, experiments, and materiality”). It is the logic behind this characterization that must be rejected: it presupposes that once the “materiality” of computer simulations is settled, it will serve for the determination of the epistemic power. In other words, the ontological characterization of computer simulations will determine its epistemology.

A different approach would be to defend that the epistemic reliability of computer simulations is philosophically detached from the materiality problem. This does not suggest, though, that they are two unrelated issues, but only that they are independent from each other. In fact, they are related insofar the materiality problem becomes, to certain extent, a limiting case for the epistemology of computer simulations.

In this presentation I would like to discuss two claims: firstly, that materiality only restricts computer simulation from “accessing” certain aspects of the world which require a causal story; in other words, materiality draws the boundaries from where experiments become a specific and irreplaceable method for knowing something about the world. Secondly, that computer simulations provide ways of inference that do not depend on its materiality but on its capacity for representing empirical as well as non-empirical systems.

 


The complexities of science-policy interaction:

will computer technologies complicate matters further?

Stina Kjellgren / Universität Stuttgart

HLRS, Medienlabor Zi. 1.067, Nobelstraße 19, 70569 Stuttgart
Freitag 13. Mai 2011 16:00 Uhr

Abstract: In recent years, advances in computer technology have enabled a new type of predictive science, in which sophisticated numerical models and data from past observations are used to foretell the behaviour of complex systems, such as the climate or extreme weather events. These predictions are very different from the ones used in traditional science with the aim of testing the explanatory power of scientific understanding. Whereas science has sometimes been seen as representing 'truth' and certain knowledge, this picture is difficult to apply to simulations, considering the epistemological uncertainty of models. The question is whether practitioners understand this, and what might happen if they don't?

Much hope is placed in predictions to guide policy making and reduce risk, but their effect is likely to depend on how they are understood and made use of. This lecture will touch upon insights from empirical studies on the translation of modelling results into practice, as well as theory on science-policy interaction,

with the aim of providing a basic understanding of the factors likely to affect the societal contribution of predictive science.


9. 02. 11

Bilder als Wissenswerkzeuge?!
Philosophische Fragen an die Erstellung und den Gebrauch von Bildern in der Wissenschaft

Frau M. A. Marianne Richter / Universität Stuttgart

HLRS, Medienlabor Zi. 1.067, Nobelstraße 19, 70569 Stuttgart
Mittwoch 9. Februar 2011 15:00 Uhr

Abstract: Bilder zählen zu den ältesten Mitteln der Welterschließung. Im 20. Jahrhundert hat sich das Spektrum der Gebrauchsformen und Einsatzbereiche von Bildern allerdings merklich ausdifferenziert. Bilder sind als Hilfsmittel nicht mehr wegzudenken, wenn es darum geht...

... Dinge oder Sachverhalte zu dokumentieren und beschreibbar oder vergleichbar zu machen.
... Informationen zu strukturieren.
... Orientierung, Bewegung und Interaktion in der realen oder in einer virtuellen Welt zu ermöglichen.
... Weltausschnitte zu modellieren, um sie besser verstehen oder erklären zu können.
... Erinnerungen aufzufrischen.
... Gefühle auszulösen.
... usw.

Als Mittel der Welterschließung stehen Bilder von Anfang an, d.h. seit über 2000 Jahren, auch im Interesse der Philosophie. Das philosophische Interesse nimmt insbesondere Anstoß an drei großen Herausforderungen, die sich im Umgang mit Bildern stellen. Zu diesen Herausforderungen gehören...

... die Bestimmung der notwendigen und hinreichenden Merkmale, die es erlauben, etwas eindeutig als Bild zu klassifizieren.
... die Bestimmung des Verhältnisses zwischen Bild und Wirklichkeit, das bereits in der antiken Philosophie als uneindeutig und trügerisch galt.
... die Unterscheidung zwischen guten und schlechten, realistischen und unrealistischen, adäquaten und inadäquaten... Bildern.

Im Vortrag sollen die drei Herausforderungen anhand von Beispielen als Probleme nachvollziehbar gemacht werden. Insbesondere soll es dann um die Frage gehen, inwiefern sich wissenschaftlich motivierte Bildpraxen durch die Möglichkeiten computergenerierter Visualisierungen verändert haben. Sind es immer noch die gleichen philosophischen Herausforderungen, die sich stellen? Wie gehen wir am besten mit den Bilderfluten um, bei denen unklar ist, ob und inwieweit sie eine Referenz in der Wirklichkeit haben? Oder ist die Angst vor einer unbemerkten Beeinflussung und Konditionierung unserer Fähigkeiten zur bildlichen Welterschließung übersteigert?


19. 01. 11
Das Internet und der Fluss von Information:
Sind wir auf dem Weg zu allgegenwärtiger Überwachung und Kontrolle?

Prof. Niels Gottschalk-Mazouz / Universität Bayreuth 

HLRS, Medienlabor Zi. 1.067, Nobelstraße 19, 70569 Stuttgart.
Mittwoch 19. Januar 2011 16:30 Uhr

Abstract: Computerisierung und Vernetzung verändern den Fluss von Information und Wissen, quantitativ wie qualitativ. Aber nicht nur das. Mark Weiser entfaltete bereits 1996 seine einflussreiche Vision vom Ubiquitous Computing, von einer intelligenten Infrastruktur mit dem ausdrücklichen Ziel, die Menschen in ihrem "Wissen, wie ...", in ihrem Können zu unterstützen. Diese Vision scheint gerade Wirklichkeit zu werden. Da auch alltägliche Gegenstände zunehmend computerisiert und vernetzt sind, da allgemein gesagt unsere Handlungen zunehmend den Einsatz informationstechnischer Infrastruktur mit sich bringen, sind sie auch zunehmend einfacher zu überwachen. Da das Gelingen von Handlungen zudem vom Funktionieren dieser Infrastruktur abhängt, können Handlungen durch gezielte Interventionen auch zunehmend einfacher kontrolliert werden. Ich möchte daher die These vertreten, dass die gegenwärtige Evolution des Internet auch die entsprechenden negativen Sozialutopien überholungsbedürftig macht: Man sollte nicht nur über Wege in die Überwachungsgesellschaft diskutieren, sondern auch darüber, dass diese Wege schließlich in die Kontrollgesellschaft führen.