Universiteiten als vergezichten van intellectuele conflicten in het tijdperk van AI

In mei 2023 vroegen we ChatGPT om "een starttoespraak te schrijven voor de president van Purdue University over het onderwerp AI", nadat ik klaar was met het opstellen van mijn eigen speech. Wat ik schreef had bijna geen overlap met wat AI deed. Ik ben misschien bevooroordeeld, maar de AI-versie leest als een B-high school essay: een grammaticaal correcte synthese met weinig specificiteit, originaliteit of humor. Misschien klinken de meeste starttoespraken en strategische plannen ongeveer hetzelfde: Universiteiten hebben het te gemakkelijk gemaakt voor grote taalmodellen! Misschien kan AI ons eraan herinneren om te proberen wat minder saai te zijn in wat we zeggen en hoe we denken. Slimmere AI kan leiden tot interessantere mensen.

Dit is wat ik schreef:

Ergens in het midden van de 20e eeuw was AI een tijdje een hot topic. Nu is het weer; zo "hot" dat geen enkele berekening te basaal is om zichzelf als AI te zalven en geen uitdaging te groot lijkt om buiten zijn bereik te liggen. Maar hoe meer je weet hoe tools zoals machine learning werken, hoe minder mysterieus ze worden.

Laten we op dit moment aannemen dat AI eindelijk transformationeel zal zijn voor elke branche en voor iedereen: onze manier van leven veranderen, vormgeven aan waar we in geloven, banen verdringen. En het verstoren van het onderwijs.

Nou, nadat IBM's Deep Blue de wereldkampioen versloeg, spelen we nog steeds schaak. Na rekenmachines leren kinderen nog steeds hoe ze getallen moeten optellen. Mensen leren en doen dingen niet alleen als overlevingsvaardigheden, maar ook voor de lol of als training van onze geest.

Dat betekent niet dat we ons niet aanpassen. Toen rekenmachines eenmaal gangbaar werden, richtten basisscholen zich op het vertalen van problemen uit de echte wereld in wiskundige formuleringen in plaats van te trainen op rekensnelheid. Toen online zoeken algemeen beschikbaar werd, leerden hogescholen studenten hoe ze online bronnen op de juiste manier konden citeren.

Sommigen hebben onderzoek gedaan naar het verbieden van AI in het onderwijs. Dat zou moeilijk af te dwingen zijn; het is ook ongezond omdat studenten na hun afstuderen moeten functioneren op een met AI doordrenkte werkplek. We zouden liever hebben dat Purdue het onderwijzen van AI en het onderwijzen met AI verder ontwikkelt. Daarom biedt Purdue meerdere grote en kleine graden, beurzen en beurzen aan in AI en in de toepassingen ervan. En daarom zal Purdue de beste manier onderzoeken om AI te gebruiken om onze studenten van dienst te zijn: om processen te stroomlijnen en de efficiëntie te verbeteren, zodat geïndividualiseerde ervaringen op grote schaal kunnen worden aangeboden in West Lafayette.

Het pauzeren van AI-onderzoek is nog minder praktisch, niet in de laatste plaats omdat AI geen afgebakend, duidelijk afgebakend geïsoleerd gebied is. Alle universiteiten en bedrijven over de hele wereld zouden elk onderzoek met wiskunde moeten stopzetten. Mijn Ph.D. co-adviseur, professor Tom Cover, deed in de jaren zestig baanbrekend werk op het gebied van neurale netwerken en statistieken, zich niet realiserend dat die later nuttig zouden worden in wat anderen AI noemen. We geven er de voorkeur aan om AI-onderzoek vooruit te helpen met een genuanceerde waardering van de valkuilen, beperkingen en onbedoelde gevolgen bij de inzet ervan.

Daarom heeft Purdue zojuist het universiteitsbrede Institute of Physical AI gelanceerd. Onze faculteit is de leider op het snijvlak van virtueel en fysiek, waar de bytes van AI de atomen ontmoeten van wat we groeien, maken en verplaatsen - van landbouwtechnologie tot gepersonaliseerde gezondheidszorg. Sommige experts van Purdue ontwikkelen AI om AI te controleren en in bedwang te houden door middel van privacybehoudende cyberbeveiliging en nepvideodetectie.

Beperkingen en limieten

Zoals het er nu uitziet, is AI goed in het volgen van regels, niet in het overtreden van regels; patronen versterken, geen patronen creëren; nabootsen wat gegeven is, niet verder denken dan hun combinaties. Zelfs individualiseringsalgoritmen werken ironisch genoeg door eerst veel individuen te groeperen in een klein aantal 'gelijkenisklassen'.

Hoe meer we kunstmatige intelligentie ontwikkelen, hoe meer we ons verbazen over menselijke intelligentie. Deep Blue versus Kasparov, of AlphaGo versus Lee, waren geen eerlijke vergelijkingen: de machines gebruikten vier ordes van grootte meer energie per seconde! Zowel de biologische mechanismen die energie opwekken uit voedsel als de hoeveelheid werk die we per Joule verzetten, moet de afgunst van machines verbazen. Kan AI net zo energiezuinig als snel zijn? Kan het andere energiebronnen dan elektriciteit opnemen? Als dat ooit het geval is, en in combinatie met sensoren en robotica die de fysieke wereld raken, zou je je moeten afvragen wat de fundamentele verschillen zijn tussen mensen en machines.

Kan AI op een dag AI maken? En AI stoppen? Kan AI lachen, huilen en dromen? Kan het massa's en tegenstrijdigheden bevatten zoals Walt Whitman? Zal AI zich van zichzelf bewust zijn en een ziel hebben, hoe 'bewustzijn' en 'zielen' ook worden gedefinieerd? Zullen het ook de "oneindig lijdende dingen" van TS Eliot zijn?

Waar begint en stopt een AI-leven eigenlijk? Wat vormt de identiteit van één AI en hoe kan deze leven zonder te hoeven sterven? Inderdaad, als de geheugen- en logicachips standhouden en samensmelten, is AI dan allemaal collectief één leven? En als AI de geest en het geheugen van een mens dupliceert, blijft dat mensenleven dan ook voor altijd bestaan?

Deze vragen zullen hypothetisch blijven totdat er meer architecturale doorbraken zijn dan alleen de snelheid van siliciumchips en exploderende gegevens naar black-box-algoritmen. Als er echter voldoende tijd en tijd wordt gegeven, zullen sommige van deze vragen uiteindelijk werkelijkheid worden, wat is dan uniek menselijk? Wat zou er nog kunstmatig zijn aan kunstmatige intelligentie? Een deel van die mogelijkheid kan, met hobbels en wendingen, sneller verschijnen dan we hadden gedacht.

Vrijheden en Rechten

Als Boilermakers deze vragen onder ogen moet zien, kan het misschien minder kwaad om "uit-schakelaars" gecontroleerd door individuele burgers te beschouwen dan een verbod door een of andere bureaucratie. Moge het medicijn niet erger zijn dan de ziekte en mag de regelgeving van overheidsinstanties niet granulair of statisch zijn, want regeringen hebben geen staat van dienst in het begrijpen van snel veranderende technologieën, laat staan ​​in het micromanagen ervan. Sommigen zouden zelfs kunnen beweren dat overheidstoegang tot gegevens en arbitrage van algoritmen tot de meest zorgwekkende toepassingen van AI behoren.

Wat we nodig hebben, zijn basale vangrails op het gebied van verantwoording, compensatie voor gegevensgebruik, intellectuele eigendomsrechten en wettelijke aansprakelijkheid. We hebben scepsis nodig bij het onderzoeken van de afhankelijkheid van de output van AI-engines van hun input. Gegevens hebben de neiging zichzelf te voeden en machines geven mensen vaak wat we willen zien. We moeten afwijkende meningen behouden, zelfs als het ongelegen komt, en koningen van filosofen gekleed in AI vermijden, zelfs als het alternatief inefficiënt lijkt. We hebben ondernemers in vrije markten nodig om concurrerende AI-systemen uit te vinden en onafhankelijk keuzes te maximaliseren buiten het grote tech-oligopolie. Sommigen van hen zullen manieren bedenken om big data te doorbreken.

Waar, wanneer en hoe worden gegevens verzameld, opgeslagen en gebruikt? Net als veel andere technologieën wordt AI neutraal geboren, maar heeft het de natuurlijke neiging om misbruikt te worden, vooral in naam van het 'collectieve goed'. De meest urgente en ernstigste nachtmerrie van AI vandaag is het misbruik ervan door autoritaire regimes om het Orwelliaanse '1984' onomkeerbaar vast te leggen: de surveillancestaat die rechten onderdrukt, driekwart eeuw na die sombere profetie geholpen en aangemoedigd door AI.

We hebben verifieerbare principes van individuele rechten nodig, die de grondwet van ons land weerspiegelen, in het tijdperk van data en machines over de hele wereld. MOTA bijvoorbeeld:

  • M voor Minimalisme: alleen de minimale actie op data voor het gespecificeerde doel.
  • O voor optionaliteit: voor zover mogelijk kan elke persoon ervoor kiezen om zich af te melden.
  • T van Transparantie: in alle gevallen moeten individuen geïnformeerd worden.
  • A van Beroep: een persoon kan bedrijven en de overheid procederen wanneer bovenstaande rechten worden geschonden, in een onafhankelijke rechtsstaat.

Mijn grootste angst voor AI is dat het de individuele vrijheid inkrimpt. Onze beste hoop voor AI is dat het de individuele vrijheid bevordert. Dat het meer opties biedt, niet meer homogeniteit. Dat de vrijheid om te kiezen en vrij blijft zegevieren.

Laten we de rechten behouden die andere alarmerende krantenkoppen in de afgelopen eeuwen hebben overleefd.

Laat onze studenten het vermogen tot twijfel, debat en afwijkende meningen aanscherpen. Laat een universiteit, zoals Purdue, het perspectief bieden van intellectuele conflicten en het zwoegen van kritisch denken.

Bron: https://www.forbes.com/sites/mungchiang/2023/05/30/universities-as-vistas-of-intellectual-conflicts-in-the-age-of-ai/