Auf welche Zukunft in welchen neuen Umgebungen muss sich die Medien- und Kulturtechnikforschung angesichts der rezenten Konjunktur von Künstlicher Intelligenz ausrichten?
Der Vortrag kommt hierzu auf eine grundsätzliche Frage von Marcel Mauss zur Konstitution von Techniken zwischen speziellen und allgemeinen Zwecken zurück. Er bietet, erstens, eine kurze Lagebeschreibung zur gegenwärtigen Entwicklung des maschinellen Lernens und neuerer KI zwischen Spezialisierung und Universalisierung.
Kern meiner Argumentation ist, zweitens, eine natur- und kulturtechnische Genealogie. Sie fragt nach der historischen Wiederkehr konnektionistischer Praktiken, Algorithmen, Denk- und Handlungsstile als Bedingung der aktuellen KI-Technologien. Wie konnten aus biologischen Neuronen artifizielle neuronale Netze werden, die als infrastrukturelle Grundierung Künstlicher Intelligenz fungieren?
Auf dem Spiel stehen dabei, drittens, die Medien selbst. Sie werden aufgrund der Naturalisierung und Habitualisierung von konnektionistischer KI zu statistisch operationalisierten, datenintensiven Netzwerken.
Künstliche Intelligenz zwischen Spezialisierung und Universalisierung: Eine Wette mit Marcel Mauss
I am happy to give a keynote at this conference of the Research Training Group “The Literary and Epistemic History of Small Forms”. It is called Infrastructures and/as Environments: Practices and Ecologies of Circulation. Feel free to join us and think collectively about “Small Forms in Circulation” at Humboldt University on November 28-30, 2024.
Mein Beitrag fragt im Rahmen des Panels „Digital Payments: Neue Vulnerabilitäten?“ nach – mithin entscheidenden – Umschlagpunkten und Leerstellen in der Medien- und Sozialgeschichte des digitalen Bezahlens. Techno-ökonomische Netzwerke werden, wie Michel Callon (1991) gezeigt hat, im Laufe ihrer Entwicklungsverläufe irreversibel. Mich interessiert diese Produktion von Irreversibilität in den mehrfachen Digitalisierungen des Bezahlens.
Ab wann und für welche Praxisgemeinschaften kann ein Bezahlsystem als universell gelten? Lässt sich diese Universalität verstetigen, oder müssen wir mit immer neuen spezialisierten Infrastrukturen rechnen, die fortwährend neue Tokens (O’Dwyer 2023) produzieren? Wem obliegt die Übersetzung von neuen Formen des Datengelds, und wie wird es mit Plattformökonomien verknüpft? Auf welche Formen von gesellschaftlicher Vulnerabilität antworten die Versicherheitlichungen digitaler Werte? Und welche individuellen Formen von Verletzlichkeit entstehen durch sie?
Einsatzpunkte des Vortrags sind u. a. die Standardisierung der Kreditkarte parallel zur Aufhebung des Goldstandards 1971, die konstitutive Absenz von Bezahlstandards im frühen World Wide Web der 1990er Jahre (und der damit einhergehende Aufstieg von Werbenetzwerkwerken als Geschäftsmodell), der Aufstieg von PayPal aus dem Zusammenbruch der Dotcom-Blase heraus und die Konjunktion des Bitcoins mit der Finanzkrise von 2008.
Konstitutive Veränderungen der Medien des Mediums Geld, so die Annahme, indizieren mehr als ein Ringen um Marktanteile und Zugang zu sozio-ökonomischer Handlungsfähigkeit und Macht. Sie sind Arbeit am sozioökonomischen Gefüge von Gesellschaften weltweit, zu dem man in Anschluss an Bruno Latour (2002: 21) sagen kann: Je mehr Infrastrukturen, je mehr datenintensive Vermittlungen, umso realer – aber auch verletzlicher – wird finanzmediale Wirklichkeit.
Jede Vermittlung zählt. Besonders deutlich wird dies in der biometrischen Zurüstung neueren Datengeldes, das eine massive Personalisierung von Werten durch und mit Körperzeichen vornimmt. In dieser Kombination von Konto, Körper und Person zeigt sich die mediale Dimension von Bezahlsystemen als Klassifikationssystemen, durch die elementare Differenzen von class, race und gender konstituiert und – potenziell – irreversibilisiert werden.
Digital Payments: Neue Vulnerabilitäten? 11. September 2024, 13.15–14.45 Uhr
Raum 02.O.03 FHNW Campus Muttenz / Basel Mit Beiträgen von Markus Unternährer, Antonia Steigerwald, Tatjana Graf, Carola Westermeier, Marek Jessen und Sebastian Gießmann
Callon, Michel. „Techno-Economic Networks and Irreversibility“. In A Sociology of Monsters? Essays on Power, Technology and Domination, herausgegeben von John Law, 132–161. London; New York: Routledge, 1991.
Latour, Bruno. „What is Iconoclash. Or is There a World Beyond the Image Wars?“ In Iconoclash. Beyond the Image Wars in Science, Religion and Art, herausgegeben von Bruno Latour und Peter Weibel, 14–37. Karlsruhe; Cambridge, MA; London: ZKM; MIT Press, 2002.
O’Dwyer, Rachel. Tokens. The Future of Money in the Age of the Platform. London; New York: Verso, 2023.
ANT was a blast when it reached Media Studies. Its methodology, however, was based on a mediating “Connectivity of Things” that could be mobilized but hardly historicized. So how do we re-engage with research on networks as cultural technique to create joint future(s) of STS and Media Studies?
Actor-network theory heuristics and methodology have traveled quite a bit outside of STS. Media Studies, in its differing styles of thought, is a case in point. Within my contribution, I am going to contextualize a still recent constellation between ANT and German Media Studies. How did crucial elements of the French anthropology of technology (Marcel Mauss, André Leroi-Gourhan, Georges Haudricourt, Gilbert Simondon) become a common ground for both actor-network theory and the Germanophone research on cultural techniques? What can be learnt for future STS network methodologies from intertwining ANT with Media Studies of cultural techniques?
From the vantage point of cultural techniques, ANT might have lacked a critical, historicizing perspective on its own foundations and mode of operation. It generalized Leroi-Gourhan’s operational chains into sociotechnical networks. Yet programmatic initiatives for historicizing and criticizing networks were not wanting—for instance, Michel Serres’s ”History of Scientific Thought” or Bruno Latour’s ”We Have Never Been Modern.” But for ANT, everything that could be described analytically as a network (or “worknet”) qualified as an actual network. Claims were bolstered by the self-evidence of the lifeworld (and academic practice) of the 1980s and 1990s. ANT could only come about because of the flourishing sociotechnical networks of the day. In contrast, subsequent, more historically oriented studies of cultural techniques—and of the history of infrastructure and science, technology, and society—demonstrate reserve by stressing the material grounding of networks, their metonymic character, situatedness, and specificity. Networks have genealogies within a “Connectivity of Things,” but they are not themselves genealogies.
Mit dem Sonapticon von Tim Otto Roth wird Musik sprichwörtlich nervös: Ein ganzer Raum verwandelt sich in ein Netzwerk von interagierenden Tönen, die grundlegende Vorgänge in Nervenzellen widerspiegeln, die uns zu fühlenden und denkenden Wesen machen. Der begehbare, immersive Klangraum aus miteinander kommunizierenden Lautsprechern macht es nicht nur möglich, in die Netzwerkstruktur einzutauchen, sondern zugleich kann man mit dieser über Töne und Geräusche interagieren. Wenn man ein Gefühl für die Abläufe bekommen hat, dann lässt sich mit dem Sonapticon auf völlige neue Art und Weise musizieren – eine Musik, die eine Idee der kognitiven Prozesse gibt, die in ihrer Komplexität für uns nach wie vor ein Geheimnis bleiben.
Theatre of Memory:
Transdisziplinäres Symposium zur Neuronästhetik
Tagungsbericht [crossposting von imachination.net]
Berlin, 26. und 27. Januar 2024
In Kontext der Ausstellung des Sonapticon von Tim Otto Roth im Tieranatomischen Theater
Bar oder mit Karte? Oder doch per App oder Krypto-Wallet bezahlen? Wenn es um’s Geld geht, fehlt in Deutschland soziale Fantasie, Innovations- oder gar Risikobereitschaft. Diesen Zustand nehme ich nicht länger hin und frage: Welchen digitalen Euro braucht unsere Zivilgesellschaft?
Kulturkontakte und Kulturtransfer finden stets in Netzwerken statt: Sie sind von Beziehungen zwischen einzelnen Vermittler:innenfiguren und vermittelnden Institutionen, von materiellen und konventionellen Handels-, Verkehrs- und Kommunikationswegen, von den transportierten Gegenständen und nomadischen Medien, und von den impliziten Protokollen für jede der einzelnen involvierten Kommunikationen und Kooperationen abhängig. Der in den letzten beiden Jahrzehnten rasante und innovative Fortschritt der Forschung zu Netzwerken in etlichen Disziplinen bietet den Geisteswissenschaften deshalb auch in diesem Bereich neue Herausforderungen und Chancen.
Die zweitägige interdisziplinäre Tagung Netzwerke im Kulturtransfer untersucht Prozesse der kulturellen Vermittlung dezidiert mit dem Blick auf jene Netzwerke, die sie ermöglichen und die von ihnen performiert werden. Es gilt, neue Verfahren und Begriffe zu entwickeln, die dem Fortschritt der Netzwerkforschung Rechnung tragen und zugleich grundlegend zum Verständnis gerade grenzüberschreitender kultureller Netzwerke beitragen – von der qualitativen und quantitativen Netzwerkforschung über Akteur-Netzwerk-Theorie und Akteur-Medien-Theorie bis zu Profilierungen zwischen system- und netzwerkorientierten Ansätzen.
Looking back at 1990s representations of cyberspace always makes one feel alienated, a bit dislocated, and amazed at the same time. Did the American and Western European grasp of the World Wide Web really mix it with imaginations of cyberspace, all of the time? How could the mundane interfaces, modems, and slowly loading websites give rise to such an enthusiastic mapping of online spatiality, creating an unique visual culture of new cyberspaces? Some explanations for this are easier to give: Cyberpunk, Gaming Cultures and Media Arts had been engaged with online spatiality before the Web grew exponentially in a short time. Interlinking public, and especially urban space with representations of digital cities and information landscapes also did not start with the Web, as Kirsten Wagner has shown as early as 2006 (Wagner 2006). Yet some of the Web’s practices became quickly engaged with a translation of urbanity into cyber-urbanity, and affording a new situationist dérive while surfing. John Perry Barlow’s “Declaration of Independence” attempted to remove the cyberspace from the realm of old statehood and legality, while addressing its representatives at the highly localized 1996 World Economic Forum in Davos.
A lot of this resonates in and with Martin Dodge’s and Rob Kitchin’s seminal work of “Mapping Cyberspace” (2000), which we want to revisit here. For them, the “Web has become such a powerful interface and interaction paradigm that is the mode of cyberspace, particularly for the mass of users who only came online since the mid-1990s.” (Dodge/Kitchin 2000, p. 3). Along with Dodge and Kitchin, a slightly more systematic explanation can be made about the dynamics between locating the Internet, and the Web, topographically while at the same time accounting for its feelingly new information spaces and attaching a topological spatiality to them. Relations between topography and topology are, as I would like to argue, always shifting and relational, thereby relying on the evaluations of what kind of indexicality a mapping wants to achieve. So neither is topography bound to mimetic mappings of actual geographic space, nor is topology something only to be found in the realm of abstract diagrammatics and mathematics that refrain from any geo-indexicality. Methodologically, Dodge and Kitchin appropriated the whole range of digital cartographic options at hand, including a multitude of distributed mappings of geographers at universities and telco companies. Geo-indexicality thus almost always remained topical, even if it was absent in representations of, let us say, a hyperlink topology between websites like Ben Fry’s Valence (1999). “[G]eography continues to matter, despite recent rhetoric claiming the ‘death of distance’.” (Dodge/Kitchin 2000, p. x.)
Thursday, 24 January 2019, University of Siegen Herrengarten 3, 57072 Siegen, room AH 217/218
13:15 Opening Remarks: Standards Revisited Sebastian Gießmann (University of Siegen) / Nadine Taha (University of Siegen)
13:30 Anna Echterhölter (University of Vienna) Red and Black Boxes: Standardization as Mesuroclasm in German New Guinea
14:30 Nadine Taha (University of Siegen) George Eastman and the Calendar Reform
16:00 Geoffrey C. Bowker (University of California, Irvine) Standard Time: Computers, Clocks and Turtles – via Zoom Conference
17:00 Lawrence Busch (Michigan State University) Markets and Standards – via Zoom Conference
Friday, 25 January 2019
10:00 JoAnne Yates (MIT, Sloan School of Management) A New Model for Standard Setting: How IETF became the Standards Body for the Internet
11:00 Thomas Haigh (University of Wisconsin, Milwaukee / University of Siegen) The Accidental Standard: How a Box Became an Industry
13:00 Sebastian Gießmann (University of Siegen) Standardizing Digital Payments
14:00 Anne Helmond (University of Amsterdam)/ Fernando van der Vlist (University of Amsterdam / University of Siegen) ‘It’s Graphs All the Way Down’
Standards
are not easy to come by. As infrastructural media they coordinate the
social to an ever-growing extent, thus creating conditions of
cooperation. Standards do so not just by their sociotechnical power, but
also by public uptake and controversies that put their accountability
into question. They can also be understood as engineering and
bureaucratic media that form a basis and condition for cooperation.
Historically, practices of
standardization can be traced back to antiquity, especially in the
history of coins, writing, and measurements. But pre-modern standards
were bound to flounder and dissipate. Early modern knowledge cultures –
partly – realized standardization via hand-made scientific instruments
that extended metrological chains. While pre-industrial attempts to
standardize the aggregation of information in administrative forms have
been limited in scale and scope, 19th century industrialization
interconnected with nationalized politics extended the territories of
standardization. Media infrastructures such as the postal service and
telegraphy became transnational through their administration in
international organizations and a legal foundation via international
treaties. Scale and scope of – inherently political and normative –
standards and metrologies were at the same time constitutive for
colonial prospection and rule.
Computing has given rise to its own
regimes and obsessions of non-governmental standardizing. While early
digital computers were unique, the trajectories of standardization were
then tied to governmental contract research, commercialization and its
coordinative and delegative practices. Serial production and the
diffusion of architectural norms became a matter of economic competition
in the era of mainframe computing in organizations. In multiple ways
both the networking of heterogeneous computers and the success of the
IBM-compatible PC did create a pathway to “open standards” that made
computers publicly accessible. In the transpacific and global arena of
hardware and software production, hyper-standardization has been an
issue ever since. This also involves the questions of formats that
mediate bureaucratic processes, textual representation, visual and
auditory perception, and digital audiovisuality. Formats thus have
become standards that mediate digital practices in their own right, just
like network protocols and Internet standards. In many ways, the
ecology of the World Wide Web is an ecology due to its standardizing
bodies, communities of practice, and institutions like the Internet
Engineering Task Force (IETF) and the World Wide Web Consortium (W3C).
Our aim is to understand how standards
generalize and universalize media technologies, and to ask: How do
metrology, industrialization, and imperialism/colonialism intersect with
standards? What is the relation between standards, digital media, and
coordination? How to explain the longue durée, ecology, and the enduring
power of standards to configure cooperation? What is the relation
between standards, delegative power, scale, and scope of media?