De självflygande planens dilemma

Text:

Bild: Tony Karumba, Christophe Ena

En pilot hade rapporterat att han inte kunde komma på en enda anledning till varför ett flygplan skulle rikta nosen neråt så aggressivt. En annan påpekat att »det faktum att det här flygplanet kräver sådan expertis för att få att flyga är en varningsflagga«. En tredje hade klagat på planets autopilotsy­stem, och på att flygmanualen var »felaktig och nästan kriminellt otillräcklig«.

Larmrapporterna har varit många. Piloter som har flugit Boeings 737 Max 8:s autopilotsystem har inte gillat det. Efter att flygplanstillverkarens plan hade kraschat i havet utanför Indonesien i oktober 2018 och alla 189 personer ombord dog visade ljudspelningar från planets svarta låda att piloterna ombord hade förtvivlat svårt att förstå varför planet dök nedåt direkt efter start. De försökte men begrep inte hur de skulle rätta upp det.

I onsdags rapporterade Bloomberg att samma plan höll på att krascha av samma anledning redan dagen innan.

Ett snarlikt förlopp tycks alltså ha föregått kraschen i Etiopien den 10 mars. Planet lyfte och autopiloten började rikta nosen neråt, piloten insåg faran, bad att få vända tillbaka och landa, men lyckades inte hindra dödskraschen som krävde 157 människoliv. Ett nödsystem som felaktigt har gått i gång och fått autopiloten att vidta vansinniga åtgärder som mänskliga piloter förgäves försöker hinna rätta till innan det är försent.

Att beskriva dessa olyckor som ett resultat av »den mänskliga faktorn« är förstås missvisande, eftersom det ensidigt lägger skulden på människan, när det uppenbart är tekniken som bär skulden. I en farlig situation vill människan förhindra en olycka och gör oftast sitt yttersta.

– Men människan måste kunna förstå hur tekniken tänker, man vill inte ha maskiner som är så komplicerade att man inte är beredd eller kunnig när systemet reagerar fel. Systemen bör underlätta, inte vara ett hinder och det här är ett klassiskt dilemma, säger Lars-Ola Bligård, forskare på avdelningen för design & human factors, på institutionen för industri- och materialvetenskap på Chalmers.

Medan Boeing nu arbetar på att uppgradera sitt felande autopilotsystem kvarstår ett grundläggande dilemma som den snabba marschen mot en automatiserad värld ställer människor inför. Automatiseringens ironier, kallade den brittiska forskaren Lisanne Bainbridge paradoxen i ett berömt tal på en forskningskongress om människans förhållande till maskiner 1983. Ju mer vi driver automatisering till den yttersta gränsen och gör oss beroende av den, desto mer beroende blir vi av ett fåtal människor som kan begripa och hantera systemet när det oundvikligen beter sig felaktigt.

Flyget har de senaste 30 åren varit ledande när det gäller att införa automatiserad teknologi. Vid ett antal svåra olyckor har piloterna ställts inför en situation där de inte begripit hur autopiloten ska kopplas ur. I en forskarrapport 2012 skrev den brittiske datorvetenskapsforskaren Gordon Baxter att moderna flygplan visserligen av piloter upplevs som lättare att flyga, men att piloternas färdigheter att flyga samtidigt inte underhålls, eftersom de den större delen av tiden i planet ägnar sig åt att övervaka digital information.

Den övergripande knäckfrågan för flyget efter de senaste krascherna blir den bekanta: Hur ska piloter som sällan får flyga på egen hand kunna vara tillräckligt förberedda på att hantera krissituationer där alltmer avancerade system gör fel, och dessutom inte förser piloterna med den information de behöver?