Hoppa till innehåll

Genombrott för Intelligent design? (del 2)

november 13, 2020

Hur räknar man på design?

Det som sticker ut med Thorvaldsen och Hössjers arbete, och det som gör att jag skriver de här blogginläggen, är att man tar upp frågan om hur man skulle kunna påvisa finavstämning och design med vetenskapliga metoder. I alla fall hur man skulle kunna tänka sig att göra; mer konkret än så blir det inte.

Thorvaldsen och Hössjer diskuterar noggrant de statistiska metoder de använder, eller snarare menar att man kan använda. Huvudlinjen är – som alltid med ID – att man försöker belägga ID genom att i första hand kritisera evolutionsteorin. Men man kan inte belägga teori A genom att visa att teori B är dålig. Författarna är också medvetna om detta. De skriver i avsnitt 6.3:

However, one may argue that the most suitable approach of science is to compare the best explanations founds so far within two competing worldviews. This naturally leads to model selection. … It is possible for some problems to suggest a design model M1 that competes with the currently most promising naturalistic model M2, in terms of which model explains data the best.

Man vill alltså jämföra en evolutionär modell med en designmodell genom att med statistiska metoder avgöra vilken av dem som är mest sannolik. Och det är tydligt man tänker sig att göra jämförelsen utifrån konkreta data. Men från vilka modeller, och från vilka data?

I sin kritik av evolutionsteorin tar man upp ett antal välkända teman, i första hand ”irreducerbar komplexitet” på flera nivåer; i enskilda proteiner, i proteinkomplex och i hela nätverk. Också den ”kambriska explosionen” och det s.k. väntetidsproblemet tas upp. Gemensamt för dessa är att man menar att livets strukturer är så komplexa och därmed så osannolika att de aldrig skulle kunna uppkomma på naturligt sätt. Det är dock ingen uppfattning som delas av den etablerade vetenskapen – här ser man argumenten som konstruerade.

Frågan är nu hur man rent konkret skulle kunna räkna på dessa problemställningar. En fråga man behandlat utförligt – och som väl är den enklaste att räkna på – gäller sannolikheten för att ett fungerande protein skall kunna uppkomma genom naturalistiska mekanismer. Thorvaldsen och Hössjer nämner i avsnitt 4.2 två strategier för att göra detta:

Den första utgår från det faktum att protein består av en eller flera kedjor av aminosyror som måste ligga i en viss sekvens. Eftersom det finns 20 olika aminosyror att välja mellan blir det ofantligt många kombinationer. I ett litet protein som består av 150 aminosyror kan de olika aminosyrorna kombineras på 1050 till 1074 olika sätt. Det här är astronomiskt stora tal; sannolikheten att ”rätt” kombination skulle uppkomma av en slump är försvinnande liten. Det stora problemet med den här strategin är emellertid att ingen biolog vid sina sinnens fulla bruk tror att proteiner bildas på det här slumpartade sättet.

Den evolutionsbiologiska synen är istället att de första enzymen bestod av korta peptidkedjor med ett litet antal aminosyror – man vet att sådana kan ha enzymatisk aktivitet.1 Att sådana peptidkedjor skulle kunna bildas av en slump är inte orimligt. De har kanske inte varit så effektiva som dagens enzymer, men om de haft en tillräcklig enzymaktivitet har de kunnat selekteras och evolveras till större och mer effektiva molekyler. Det är alltså ingen som tror att proteiner bildas på det sätt som Thorvaldsen och Hössjer här tar upp. Det är lite märkligt att de över huvud taget nämner denna bisarra tanke. Den saknar fullständigt relevans.

Den andra strategin är att ställa upp ett hypotetiskt evolutionärt träd för hur ett visst protein skulle kunna ha evolverats, och att sedan räkna på sannolikheten för den processen. Men det är mycket kunskap som saknas för att man skall kunna göra trovärdiga beräkningar av det här slaget, inte minst eftersom man får räkna med en evolution som sträcker sig över miljarder år. Man skulle behöva detaljerad kunskap om vilka precis organismer det rör sig om, mutationsfrekvenser, populationsstorlekar, selektionstryck och mycket annat som är omöjligt att veta i efterhand. Det här är ingen realistisk väg. Ingen har heller försökt ställa upp något detaljerat scenario av det här slaget, vad jag vet.

Slutsatsen är att det inte är praktiskt möjligt att statistiskt beräkna sannolikheten för att ett protein skulle kunna evolveras via naturliga mekanismer. Svårigheterna är så enorma att det nog aldrig kommer att bli möjligt. Och det var ändå det enklaste av de fall man har diskuterat.

***

Thorvaldsen och Hössjers strategi för att påvisa finavstämning bygger på en statistisk jämförelse mellan en naturalistisk modell M2 och en designmodell M1. Vi behöver då beräkna sannolikheten för båda modellerna för att sedan kunna jämföra dem. Vi har redan sett att det är praktiskt omöjligt att beräkna sannolikheten för att en komplex biologisk struktur skall kunna uppstå enligt en naturalistisk modell. Men hur beräknar man sannolikheten för en designmodell? Det är något författarna klokt nog inte går in på. Här sitter vi nämligen riktigt i klistret.

För att kunna beräkna sannolikheten för hur en komplex biologisk struktur skall kunna uppstå, måste vi alltså ha en trovärdig och detaljerad modell av processen. Det gäller också om det ligger en medveten design bakom. Vi måste alltså ha kunskap om designern för att bedöma sannolikheten för att vederbörande ville ha sin design just på det sätt som vi ser att den är. Det här kräver detaljerad kunskap – vi måste förstå precis hur designern tänker, vilka avsikter, planer och medel vederbörande har. För att kunna göra statistiska beräkningar måste vi ha konkreta data, siffror.

Emellertid är man inom designrörelsen mycket noga med att inte säga något om vem designern skulle vara, eller vilka egenskaper designern skulle ha. Det gör det principiellt omöjligt att beräkna den statistiska sannolikheten för en designprocess. Det är alltså inte bara praktiskt omöjligt, som med den naturalistiska modellen, det är principiellt omöjligt.

Den statistiska modell Thorvaldsen och Hössjer har lagt fram för att påvisa design är feltänkt och oanvändbar – den bygger på det orimliga antagandet att man kan göra en statistisk uppskattning av sannolikheten för att en okänd designer skulle ha handlat på ett visst sätt. Det är en gåta att de valt att publicera den.

Noter:

1. Korta peptider kan spontant bilda stabila komplex som har enzymatisk aktivitet. Se: Jason Greenwald et. al.: Peptide Amyloids in the Origin of Life. J Mol Biol (2018) vol. 430, s. 3735–3750 https://pubmed.ncbi.nlm.nih.gov/29890117/

2 kommentarer leave one →
  1. Ola Hössjer permalink
    juni 29, 2021 3:00 e m

    Del 2. Om att räkna på design

    För att kunna uppskatta sannolikheten att ett biologiskt system ska ha uppkommit av slump (alltså steg a) i finjusteringsargumentet) krävs en naturalistisk modell M2 som beskriver hur utvecklingen eller evolutionen gått till. Att modellen är naturalistisk innebär att den endast innehåller naturliga förklaringsmekanismer. När det gäller biologisk evolution, dvs utveckling av komplicerade livsformer från enkla encelliga organismer brukar man involvera de fem naturalistiska mekanismerna i) mutationer, ii) genetisk drift, dvs slumpmässig variation i hur reproduktiva individerna i en föräldrageneration är, iii) naturligt urval, iv) rekombinationer av genetiskt material från ett föräldrapar, samt v) den blandning av genpooler som orsakas geografisk migration.

    Erkell hävdar att det är praktiskt omöjligt att ge en rimlig uppskattning av sannolikheten för att exempelvis ett protein ska kunna ha utvecklats i enlighet med en naturalistisk modell M2. Jag håller med om att detta är oerhört svårt, eftersom en sådan modell av nödvändighet måste vara komplicerad, med mer eller mindre okända parametrar. Ändå menar jag att det finns en framkomlig väg för att visa på svårigheten hos naturalistiska processer att åstadkomma komplexa strukturer. Om man endast tar fasta på vissa egenskaper hos proteinet som enligt M2 måste ha utvecklats får man en konservativ övre uppskattning av sannolikheten att ett protein erhållits genom evolutionära processer. För att även ta hänsyn till det faktum att flera av modellens parametrar (såsom selektionstryck, mutationshastighet, populationsstorlekar, generationstider osv) kan vara svåra att uppskatta från data med god noggrannhet, kan man genom en så kallad sensitivitetsanalys räkna fram hur den övre uppskattningen av sannolikheten för proteinets utveckling ändras då de ingående parametrarna ändras. Om denna övre uppskattning av sannolikheten är liten för alla biologiskt rimliga värden på de ingående parametrarna har man givit ett argument för svårigheten hos den föreslagna naturalistiska modellen M2 att förklara uppkomsten av det givna proteinet. Jag hävdar alltså, i motsats till Erkell, att första steget a) i vår metod för att detektera finjustering i högsta grad är praktiskt möjlig att genomföra.

    Den andra delen b) av vårt finjusteringsargument består i att hitta ett mått f(x) på hur specifiserat ett biologiskt system x är. Som nämndes i inledningen tar f(x) fasta på någon egenskap som observatören känner igen, och som i många fall för tankarna till att en intelligent designer ligger bakom uppkomsten av systemet. I TH2020 ger vi flera exempel på hur systemet x och dess specifisering f(x) kan väljas. Ett exempel är att x svarar mot ett protein eller en molekylär maskin, och att specifiseringen anger hur många delar som måste finnas på plats för att x ska fungera. Ett annat exempel är att f(x) anger biologisk fitness hos en organism x, det vill säga dess reproduktionsförmåga. I anslutning till det senare exemplet argumenterar vi i TH2020 för att evolutionen på sikt kommer att bryta ner det genetiska materialet hos en art eftersom de flesta mutationer är skadliga eller neutrala. Konsekvensen blir då att fitness hos artens individer minskar över tid. Detta medför i sin tur att sannolikheten i a) blir mycket låg för att en evolutionär modell M2, baserad på de ovannämnda mekanismerna i)-v), ska kunna förklara att organismen ifråga uppkommit under miljontals år av utveckling, eftersom det genetiska materialet under en så lång tid har hunnit utarmas.
    Men om en naturalistisk modellen M2 har svårt att förklara uppkomsten av ett biologiskt system som innehåller någon form av specifikation, är frågan om det finns någon annan bättre förklaringsmodell. I slutet av TH2020 ger vi exempel på design- eller kreationistiskt inspirerade modeller M1 som vi menar har större förutsättningar än M2 att förklara uppkomsten av det finjusterade systemet. För att göra ett sådant resonemang mer rigoröst gäller det att visa att sannolikheten för uppkomsten av det givna systemet är mycket högre för designmodellen M1 än för den naturalistiska modellen M2. I exemplet ovan, där f(x) svarar mot biolgisk fitness hos en organism x, så refererar vi till olika artiklar där en designmodell beskrivs, som förutom de ovannämnda (mikro)evolutionära mekanismerna i)-v) lägger till en sjätte mekanism vi) i form av genetisk variation hos ett första skapat par, som alla individer i arten härstammar ifrån. Enligt en sådan designmodell M1 kan uppkomsten av arter förklaras genom en kombination av skapad variation (mekanism vi) och en kortvarig, småskalig mikroevolution (mekanismerna i-v). Problemet med genetisk utarmning blir då mycket mindre, eftersom den skapade variationen gör det möjligt att anta att arten uppstod relativt nyligen, så att den genetiska erosionen, förorsakad av de skadliga mutationerna, verkat under mycket kortare tid.2

    Erkell är starkt kritisk till att vi inför en designmodell för att förklara uppkomsten av ett biologiskt system. Han skriver:

    ”För att kunna beräkna sannolikheten för hur en komplex biologisk struktur skall kunna uppstå, måste vi alltså ha en trovärdig och detaljerad modell av processen. Det gäller också om det ligger en medveten design bakom. Vi måste alltså ha kunskap om designern för att bedöma sannolikheten för att vederbörande ville ha sin design just på det sätt som vi ser att den är. Det här kräver detaljerad kunskap – vi måste förstå precis hur designern tänker, vilka avsikter, planer och medel vederbörande har. För att kunna göra statistiska beräkningar måste vi ha konkreta data, siffror.

    Emellertid är man inom designrörelsen mycket noga med att inte säga något om vem designern skulle vara, eller vilka egenskaper designern skulle ha. Det gör det principiellt omöjligt att beräkna den statistiska sannolikheten för en designprocess. Det är alltså inte bara praktiskt omöjligt, som med den naturalistiska modellen, det är principiellt omöjligt.”

    Jag håller helt med Erkell om att det är svårt att avgöra exakt vilka planer eller intentioner en designer har. Men detta är heller inte nödvändigt att känna till. Det räcker att låta ett designinspirerat tänkande generera konkreta falsifierbara hypoteser. En designinspirerad modell går därför utmärkt att kombinera med den hypotetiskt-deduktiva metoden, som utgör grunden empirisk vetenskap, enligt följande tre steg:

    1) Föreslå en falsifierbar hypotes, som både kan innehålla naturliga mekanismer och designinspirerade delar.
    2) Utvärdera och se om hypotesen i 1) överensstämmer med data.
    3) Om överensstämmelsen i 2) inte är god, gå tillbaka till 1) och föreslå en bättre hypotes.

    Erkell ställer mycket långtgående, för att inte säga orimliga krav på designmodellen, eftersom han inte nöjer sig med falsifierbara hypoteser. Istället vill han även inbegripa egenskaper hos designern som ofta kan vara svåra att testa vetenskapligt. Även om det är nog så intressant att föra ett samtal om vilka intentioner designerna har, har detta med tolkningen och orsaken till uppkomsten av hypoteser att göra, vilket inte krävs för den hypotetiskt-deduktiva metoden. Man kan alltså använda mer eller mindre intuitiva designargument för att formulera testbara hypoteser, utan att för den skull behöva testa de resonemang som ledde fram till formulerandet av hypoteserna.

    Dessutom slår Erkells resonemang tillbaka som en bumerang på honom själv. Borde han inte ställa samma rigorösa krav på naturalistiska modeller M2, där tolkningen av desamma ingår? Hur ska exempelvis slumpen i en evolutionär modell förklaras? Är det fråga om epistemisk slump (som ett sätt att beskriva bristande kunskap), ontologisk slump (genuin icke-determinism) eller ska kvantmekanik användas för att förklara uppkomsten av slump? Vilken tolkning av kvantmekaniken ska i så fall användas? Om inte dessa frågor kan ges ett entydigt svar riskerar Erkell att såga av den sekulära vetenskapsgren han själv har satt sig på.

    2) Detta brukar kallas för Haldanes dilemma. En historisk översikt över Fisher’s Fundamental Theorem of Natural selection (som är nära besläktat med Haldanes Dilemma) ges i Basener W., Cordova S., Hössjer O. och Sanford J. (2021). Dynamical Systems and Fitness Maximization in Evolutionary Biology. In: Sriraman B. (eds) Handbook of the Mathematics of the Arts and Sciences. Springer, Cham.

    • Lars Johan Erkell permalink
      september 8, 2021 6:12 e m

      I det här avsnittet kommer vi in på arbetets kärna, din statistiska modell för att detektera finavstämning/design. Den förutsätter att man kan räkna ut sannolikheten för att en biologisk struktur skall kunna evolveras via naturliga mekanismer, en extremt svår uppgift. Du skriver att man kan göra meningsfulla uppskattningar av sannolikheten för ett protein skall kunna evolvera genom att göra en sensitivitetsanalys av en övre uppskattning av denna sannolikhet. Om variationen av denna skattning är liten för alla biologiskt rimliga värden på de ingående parametrarna skulle man ha ett argument för svårigheten hos den föreslagna naturalistiska modellen

      Men hur får du fram ”alla biologiskt rimliga värden”? Det räcker inte att räkna på en enda gen – gener (och proteiner) samverkar i komplexa nätverk, och selektionstrycket verkar på hela nätverket. Växelverkan mellan gener kallas epistas, och den måste finnas med i din modell. Ekologin är också avgörande eftersom selektionstrycket är helt beroende av organismens miljö. Problemet är att det finns astronomiskt många möjligheter till epistatiska (och ekologiska) interaktioner, och du har inga ledtrådar till vilka som kunde vara de relevanta. Du kan inte räkna på ett visst protein ”allt annat lika”; eftersom genomet ständigt förändras är inte ”allt annat lika”. Allt detta betyder att du inte kommer i närheten av en realistisk modell av en evolution som har ägt rum i otaliga steg under miljoner eller miljarder år.

      Bortsett från allt detta finns det också ett grundläggande tankefel i ansatsen, nämligen att den utgår från sannolikheten för en process med ett bestämt mål i form av en bestämd struktur (det är i alla fall så ID-förespråkare brukar räkna). Men evolutionära processer har inget mål. Vad gäller proteiner och proteinkomplex finns det oerhört många strukturer som har samma eller liknade funktion, och det är någon av dessa som kommer att selekteras. Det är alltså sannolikheten för att funktionen – inte den exakta strukturen – skall evolveras som är det viktiga.

      Hursomhelst menar du att ”vår metod för att detektera finjustering i högsta grad är praktiskt möjlig att genomföra”. Varför har ni inte gjort det i så fall? Varför har ni inte åtminstone en diskussion av vilka faktorer som skulle ingå i en sådan beräkning, hur de skall identifieras, hur de skall uppskattas, hur de skall vägas mot varandra, osv? Då – och först då – skulle den här artikeln bli intressant. Ännu intressantare skulle det bli om ni kunde lyckas med den andra delen av er metod, nämligen att räkna ut sannolikheten för design. Skall man testa sannolikheten att för en viss struktur är designad måste man känna till designerns egenskaper – design är en viljeakt, och det är sannolikheten för den viljeakten ni skall räkna ut. Och det är givetvis omöjligt utan ingående kunskaper om designern. Du skriver ingenting om hur det här skulle gå till, och det förvånar mig inte; jag misstänker att du inte har en aning. Jag har det i alla fall inte. Men det här är nödvändigt om du skall kunna jämföra M1 och M2. Den jämförelsen är själva kärnan i er metod. Men det kommenterar du så här:

      ”Erkell ställer mycket långtgående, för att inte säga orimliga krav på designmodellen, eftersom han inte nöjer sig med falsifierbara hypoteser. Istället vill han även inbegripa egenskaper hos designern som ofta kan vara svåra att testa vetenskapligt.”

      Du kommer inte undan här: sannolikheten för en designhypotes inbegriper sannolikheten för att en designer verkligen vill åstadkomma en viss sak. Utan avsikt ingen design. Om vi tänker oss en omnipotent designer (vilket du antagligen gör) är det bara en viljeakt det handlar om; några praktiska komplikationer existerar inte. Men jag blir nyfiken; du skriver ”egenskaper hos designern som ofta kan vara svåra att testa vetenskapligt”, vilket måste betyda att det faktiskt finns egenskaper hos designern som kan testas vetenskapligt. Vilka är det? Hur kan man testa dem? Vi kommer här in på riktigt centrala frågeställningar om vetenskapliga hypoteser. Den diskussionen är så viktig och omfattande att den svårligen får plats i kommentarsfältet. Jag har därför skrivit ett separat inlägg om saken, ”Vetenskap, hypoteser och Intelligent design” (https://biologg.wordpress.com/2021/09/08/vetenskap-hypoteser-och-intelligent-design/).

      I din kommentar kommer du också in på helt andra saker: du talar om ”genetisk erosion” och hänvisar i en fotnot till ”Haldanes dilemma”. Här blandar du ihop två saker. Haldanes dilemma handlar inte om någon sorts erosion utan om hur snabbt evolutionen kan gå, mer specifikt om det funnits tillräckligt med tid för de gensubstitutioner som måste ha skett från tiden för människans och schimpansens gemensamma förfader tills idag. Den genetiska erosion du talar om är John Sanfords genetiska entropi, en helt annan sak. Den skulle bestå i ett långsamt och oundvikligt genetiskt sönderfall som skulle leda till vår undergång. Emellertid har vare sig Sanford eller någon annan kunnat visa att det här sönderfallet faktiskt äger rum. Sanford bygger på en tidigare, numera avfärdad, idé om att det skulle kunna inträffa en genetisk ”felkatastrof” om tillräckligt många skadliga mutationer samlas i ett genom. Emellertid har man aldrig kunnat visa att sådana katastrofer faktiskt äger rum, utan tvärtom att de inte sker (Springman, R. et al: Evolution at a High Imposed Mutation Rate: Adaptation Obscures the Load in Phage T7. Genetics (2010)184: 221–232) https://www.genetics.org/content/184/1/221; Summers, J., Litwin, S.: Examining The Theory of Error Catastrophe. J. Virol., (2006) 80, 20–26. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1317512/. Så glöm det här med genetisk entropi.

      Avslutningsvis menar du att jag borde ställa samma stränga krav på min egen forskning som jag gör med din. Men det är precis det jag gör – jag ställer samma krav på din forskning som jag själv har att leva upp till. Vad gäller din fråga om slumpen utgår jag (och mina kollegor) från en ontologisk slump, eftersom kemiska reaktioner bygger på växelverkan mellan elementarpartiklar och dessa är underkastade kvantlagarna i sin s.k. Köpenhamnstolkning. Detta är grunden för molekylarorbitalteorin, och därmed för kemin och biologin, har jag en gång fått lära mig.

Lämna en kommentar