Tomas Domberg, styrelsemedlem i Svenskt Projektforum, har ett stort engagemang för projekt som arbetsform. Utöver…
Debatt: projektmetodikens betydelse
Vad roligt att vår artikel om Toppfeber väcker debatt, såväl i ett renodlat debattinlägg av Ylva Eriksson som av kommentatorer i anslutning till vår artikel! Jag/vi ser fram mot en fortsatt diskussion om vad som går att lära sig från K2 och andra situationer som erbjuder liknande eller andra lärdomar.
För att vara tydlig så gjorde i synnerhet österländska klättrare otroliga räddningsförsök på K2, i flera fall risk för det egna livet och i rent hjältemod. ”Icke-hjälps fallet” (David Shaw), som nämns i den första artikeln inträffade på Everest, ska inte ses som ett typiskt klättringsbeteende – på samma sätt som toppfeber, grupptänkande, eskalerande beslutsfattande inte inträffar i alla situationer – oavsett om det är traditionella eller icke-traditionella projekt.
Projektmetodikens betydelse
Lärdomarna om toppfeber handlar inte om ett regelrätt angrepp på traditionell projektmetodik. Projektmetodik är en viktig del i utförandet av ett projekt, oavsett om det sker på havsnivå eller på en den högsta av punkter. Metodik skapar såväl riktning som innehåll för vad som ska göras och när marginalerna är små är en tydlig metodik ett krav på ett effektivt utförande (effektivt är dock inte alltid detsamma som framgångsrikt). När det kommer till metodik är bergsklättringsexpeditioner extremt välplanerade projekt där näst intill varje enskilt steg är planerat och kontinuerligt bedömt. Det handlar om mycket tydliga planer, riskbedömningar och uppföljningar. Inte minst för att komma ner med livet i behåll, men också för att överhuvudtaget kunna nå toppen.
Vad som inträffade på K2 är, som Ylva skriver, ett utfall av att man i viss mån gick från metodiken när man bedömde att den fortfarande beskrev situationen på ett korrekt sätt och att det därför inte fanns någon anledning att vända om. Ett sätt att se på händelserna är därför att klättrarna som fortsatte i viss mån gick mot den förutbestämda planen, bl a när de fortsatte trots avsaknaden av rep och tidigare förseningar. Ett annat sätt att se på situationen var att vädret var bra och att metodiken skulle göra det möjligt att återvända om än med en högre, men ändock accepterad, risk. I slutändan var det dock isen som kollapsade som fällde avgörandet – tillsammans med alla små beslut som fattats på vägen.
En del av vårt argument är därför att beteendet – och händelserna – var en följd av kollektiva vardagliga ”icke-beslut” hos de inblandade klättarna. Vad vi menar är att de individuella klättrarna inte fattade egna beslut, utan drogs med i den allmänna strävan att nå toppen. På det sättet förklaras inte beslutsprocessen av att projektet förblev ”öppet” ändå in i slutet. Under det slutgiltiga toppförsöket agerade de enskilda klättrarna som sina egna projektledare, beställare och utförare. Kollektiva icke-beslut ska därför inte betraktas som en öppen demokratisk beslutsprocess eftersom det inte var frågan om ett konkret beslutstillfälle annat än några få ytterst korta ordväxlingar mellan ett fåtal individer i den stora gruppen. Istället för att ta sitt individuella beslutsansvar, fortsatte klättrarna eftersom metodiken bedömdes hålla samtidigt som majoriteten av de andra fortsatte.
Individuellt ansvar och icke-beslut med långtgående konsekvenser
Fredrik var en av de klättrare som tillsammans med Erik Meyer tidigt under toppförsöket bestämde sig för att vända om, trots att detta spolierade deras möjligheter att nå toppen och månader av förberedelser och stora summor pengar skulle gå förlorat. Detta visade sig vara ett korrekt beslut. Att våga fatta beslutet att gå mot strömmen kräver ett stort personligt mod och det är inte förrän resultatet har kommit, som man vet huruvida det var ”rätt” beslut eller inte.
Det är inte lätt att avgöra vilket beslut som är rätt. Det framgår även ur Ylvas erfarenhet, där hon kräver att experten ska köra igång linjen trots att styrningen inte var färdig. I hennes fall resulterade det i att linjen kunde tas i bruk om än med viss inkörningsproblematik, vilket givetvis är bra. Andra exempel som tas upp i hennes debattinlägg inkluderar kritiska IT-system som riskerar patientens liv om de inte fungerar. I litteraturen behandlas i synnerhet det senare inom ”High Reliability Organizations” och ”Normal Accidents” litteraturen som sedan 1980-talet studerat kritiska organisationer med små marginaler, ex vis kärnkraftverk, hangarfartyg, kärnvapensystem (Perrow, 1984; Sagan, 2004; Weick & Roberts, 1993)*. Ämnet har även i viss utsträckning berörts inom projektlitteraturen (Denyer et al., 2011, Brady, 2010 #2095).
Vad dessa studier fann var att i sammanhang, där det inte finns utrymme för några misstag, ex vis kärnkraftverk eller kritiska IT-system, går det inte att endast förlita sig på en förutbestämd metodik. En sådan är givetvis en förutsättning för stora delar verksamheten, men när något oväntat inträffar – och det kommer det förr eller senare att göra – måste det bl a finnas marginal för att hantera avvikelsen skilt från andra aktiviteter. Men då måste också – och det är viktigt för poängen i vår artikel – ansvaret tryckas ner i organisationen till dem som utför arbetet, dvs en grupp eller en individ. Genom att trycka ner ansvaret för att lösa uppgiften, tas situationen i större beaktande istället för ett förutbestämt handlingssystem som utgår från kända potentiella problem. Ett handlingssystem, dvs en plan, är bra på att effektivt hantera det kända, men kan per definition inte hantera det okända annat än genom att ge en vägledning som avvikelsehanterande aktiviteter kan förhålla sig till.
Ylvas erfarenhet av att som projektledare kräva ett igångsättande, är långt ifrån unik och oftast går det säkert bra. Det finns dock motsvarande situationer, där resultatet är mindre lyckat, speciellt i s k ”högriskorganisationer” (IT-system, kärnkraft osv). Det kanske tydligaste exemplet är hämtat ur ”HRO/NAT” litteraturen och handlar om uppskjutningen av rymdfärjan Challenger (Vaughan, 1996; Vaughan, 1999). Det säger sig självt att utvecklingen och uppskjutningen av en rymdfärja ställer krav på felfri utveckling och utförande i minst lika stor utsträckning som igångsättandet av en fabrik eller ett datorsystem. Det är bokstavligen miljontals delar och delsystem som ska samverka för att uppskjutningen ska vara framgångsrik. I Challenger-fallet är också tidsfönstret för uppskjutningen väldigt kort. Uppskjutningen måste göras vid precis rätt tillfälle när jorden är placerad på ett så gynnsamt sätt som möjligt i förhållande till målet, annars blir kostnaderna enorma. Inför uppskjutningen uttryckte en grupp tekniker farhågor om huruvida O-ringarna skulle klara av påfrestningarna då de uppvisat stort slitage i tidigare tester. Slitaget normaliserades av ledningen i olika steg och under ett antal tester, där det ställdes krav på att teknikerna skulle rätta in sig i ledet. De rättade in sig under protest. Med facit i hand vet vi att uppskjutningen slutade i en gigantisk katastrof. Rymdfärjan sprängdes inför stor publik. Skulden kunde sedermera hänföras till O-ringarnas slitage. Poängen med detta fall, och med K2, är att det måste finnas utrymme för att dra i handbromsen, säga från och ta ett eget individuellt beslutsansvar.
Lika lite som det finns utrymme för ett känslomässigt egensinnigt agerande under igångkörningen av ett IT-system, lika lite finns det utrymme på K2. Det är också vår poäng. Det är när det är känslorna som styr som det kan gå tokigt. Känslorna handlar delvis om att man är ”såååå nära” och därför vill fortsätta, men också om att obetydliga aktiviteter och beslut kan ha stor betydelse. Dessa vardagliga aktiviteter inkluderar att befinna sig i en grupp som fortsätter och själv bidra till det kollektiva ”icke-beslutet” att fortsätta. Genom att fortsätta är var och en och alla tillsammans en ”ond” förebild för de andra, en variant på grupptänkande. Vad som är intressant är att en fast metodik och en orubblig tro på den, riskerar att producera precis samma resultat som toppfeberbeteendet. Istället för att ifrågasätta huruvida metodiken visar på rätt väg, misstas metodiken för den ”sanna enda vägen”, vilket leder till att man riskerar att kollektivt fortsätta framåt, i synnerhet när målet är nära.
Jag tror personligen att lärdomarna i den här diskussionen både kan hämtas från metodikens värld men också från människors beteende i pressade situationer. Det finns lärdomar som kan utnyttjas i utförandet av expeditioner och lärdomar som gäller för mer traditionella projekt. Jag/vi ser fram emot en fortsatt diskussion.
* Här finns en del referenser för den intresserade:
- Denyer, D. & Kutsch, E. & Lee-Kelley, E. L. & Hall, M. (2011) Exploring reliability in information systems programmes. International Journal of Project Management.
- Perrow, C. (1984) Normal Accidents: Living with High Risk Technology, Princeton, Princeton University Press.
- Sagan, S. D. (2004) The Problem of Redundancy Problem: Why More Nuclear Security Forces May Produce Less Nuclear Security. Risk Analysis, 24 (4), 935-946.
- Vaughan, D. (1996) The Challenger Launch Decision: Risky Technology, Culture, and Deviance at NASA, University of Chicago Press.
- Vaughan, D. (1999) THE DARK SIDE OF ORGANIZATIONS: Mistake, Misconduct and Disaster. Annual review of Sociology, 25 (1).
- Weick, K. E. & Roberts, K., H. (1993) Collective Mind in Organizations: Heedful Interrelating on Flight Decks. Administrative Science Quarterly, 38 (3), 357-381.