Når ting går galt i en automatiseret verden, ville vi stadig vide, hvad vi skal gøre?

Vi lever i en verden, der både bliver mere og mere kompleks og automatiseret. Så ligesom vi skal håndtere mere komplekse problemer, fører automatisering til en atrofi af menneskelige færdigheder, der kan efterlade os mere sårbare, når vi reagerer på uventede situationer, eller når ting går galt. The Conversation

Overvej sidste minut af Air France Flight 447, der styrtede ned i Atlanterhavet i maj 2009 efter at have forladt Rio de Janeiro, Brasilien, til Paris, Frankrig.

Dens flight recorder afsløret fuldstændig forvirring i cockpittet. Flyet blev vippet opad ved 15 ° med en automatiseret stemme, der gentagne gange kalder "stall, stall". Alligevel drejede piloterne sig, en udbrød: "[...] vi forstår ikke noget."

Dette er ikke stedet at gå ind og ud af den ulykkelige flyvning, bortset fra at bemærke, at ethvert system, der er designet til automatisk at håndtere uforudsete situationer, for det meste efterlader en forringet færdighedsbase for de mindste situationer, som designerne ikke kunne ikke forudse.

Tale til Vanity Fair, Nadine Sarter, en industriel ingeniør ved University of Michigan, minder om en samtale med fem ingeniører, der er involveret i at bygge et bestemt fly.


indre selv abonnere grafik


Jeg begyndte at spørge: 'Nå, hvordan fungerer dette eller det?' Og de kunne ikke blive enige om svarene. Så jeg tænkte, hvis disse fem ingeniører ikke kan være enige, den stakkels pilot, hvis han nogensinde støder på den særlige situation ... godt held og lykke.

I virkeligheden er kompleksiteten af ​​flygtigt højt indviklede højteknologiske passagerfly blevet outsourcet til en robot med flyingeniører til alle formål og formål forsvundet fra cockpits. Kun ældre piloter og tidligere luftvåbenpiloter bevarer disse detaljerede færdigheder.

Tilbage på terra firma, i en autonom køreverden kunne der være hele fremtidige generationer uden praktisk erfaring overhovedet kørsel og navigering et køretøj.

Vi ser allerede en indikation af hvad der kan gå galt når mennesker overlader kontrollen til autonome systemer.

En undersøgelse af fatalt nedbrud af en Tesla Model S med autopilot bemærkede, at virksomheden leverede oplysninger om "systembegrænsninger" til drivere. I så fald er det stadig op til chauffører at være opmærksomme.

Men hvilken chance ville en person have for at overtage enhver kontrol, hvis tingene begynder at gå galt i deres fremtid fuldt autonomt køretøj. Ville de endda vide, hvordan de kunne få øje på de tidlige tegn på forestående katastrofe?

At miste vores måde?

At køre dette er en teknologisk determinisme, der mener, at enhver innovation er iboende god. Mens nye teknologier endnu kan definere, hvad det er at være menneske, er udfordringen at genkende risikoen og hvad man skal gøre for at sikre, at ting ikke går galt.

Det bliver sværere, da vi har tilføjet kompleksiteten, især med autonom kørsel af forstæder tog, luft taxaer , levering droner.

Systemdesignere har bygget større og mere sammenflettede systemer til at dele computerens behandlingsbelastning, selvom dette gør deres kreationer til de vigtigste kandidater til sammenbrud. De overser det faktum, at når alt er forbundet, kan problemer sprede sig så let som løsninger, nogle gange mere.

Den voksende og enorme kompleksitet i en automatiseret verden udgør lignende risici.

Fare punkter

Efterhånden er der behov for en evne til at skære netværk gratis, når der er fejlpunkter, eller i det mindste at forsegle dele af et enkelt netværk, når der er fejlpunkter andetsteds inden i det.

Denne "ø" er en funktion af smarte elnet, der giver mulighed for at opdele netværket i fragmenter, der er i stand til at opretholde deres interne strømbehov. Modellering har vist det færre forbindelser kan føre til mere sikkerhed.

Kunne fremvoksende kompleksitetsvidenskab hjælpe med at lokalisere, hvor farepunkterne måske ligger i stærkt sammenkoblede netværk? Marten Scheffer og kolleger tænkte nok. Han havde set ligheder mellem (hans) naturlige systems adfærd og økonomiske og finansielle systemer.

Hans tidligere arbejde på søer, koralrev, have, skove og græsarealer, fandt, at miljøer, der er udsat for gradvise ændringer som klima, næringsstofbelastning og tab af levesteder, kan nå tippunkter, der vender dem til en undertiden irreversibel lavere tilstand.

Kunne bankfolk og økonomer, der kæmper med stabiliteten på de finansielle markeder, lære af forskere inden for økologi, epidemiologi og klimatologi for at udvikle markører for nærheden til kritiske tærskler og systemopdeling?

I februar 2016 kom dette alt sammen i form af en artikel om kompleksitetsteori og finansiel regulering medforfatter af en lang række eksperter, herunder økonom, bankmand, fysiker, klimatolog, økolog, zoolog, dyrlæge og epidemiolog.

De anbefalede en onlineintegration af data, metoder og indikatorer, der indgår i stresstest for globale socioøkonomiske og finansielle systemer i næsten realtid. Førstnævnte svarer til hvad der er opnået i forbindelse med andre komplekse systemer såsom vejret.

Vi kan begynde at se, hvordan vores eksempel på en autonom kørselsverden folder sig ud i spørgsmål om netværksstabilitet. Forestil dig et meget sammenkoblet netværk af autonome køretøjer.

Der er et klart behov for at vide, hvordan man opdager og isolerer eventuelle fejlpunkter i et sådant netværk, før ting går galt med potentielt tragiske konsekvenser. Dette er mere end bare at beskytte fører og passager mod ethvert systemfejl i et enkelt autonomt køretøj.

Det er tid til at tænke over, hvordan vi kan bruge disse tværfaglige fremskridt med at forstå stabiliteten i sådanne store netværk for at undgå drastiske konsekvenser.

Om forfatteren

Peter Fisher, adjungeret professor, globale, by- og samfundsvidenskab, RMIT University

Denne artikel blev oprindeligt offentliggjort den The Conversation. Læs oprindelige artikel.

Relaterede bøger

at InnerSelf Market og Amazon