2011 gav vetenskapshistorikern David Kaiser ut en bok som hette How the Hippies Saved Physics: Science, Counterculture, and the Quantum Revival.
Den handlade om en informell diskussionsgrupp av fysiker i Kalifornien som från sent 1970-tal tog upp alternativa synvinklar inom fysik som intresserade dem.
Kaiser argumenterar för att denna grupp har förnyat fysiken och har varit viktig för uppkomsten av kvantinformationsteori.
Andra än Kaiser är dock ganska kritiska till gruppen och pekar på intresset för kvantmystik och kopplingar till böcker som Fysikens Tao och De dansande Wu-Li-mästarna, två alster som är illa sedda bland många fysiker.
Några av medlemmarna i gruppen sammarbetade även med amerikanska spionorganisationer och bidrog till parapsykologisk forskning som skildras i boken och filmen The men who stare at goats.
Att vissa av medlemmarna i gruppen har kommit med viktiga bidrag till kvantinformationsteorin, som är en etablerad och viktig vetenskap, är dock sant.
Delvis kan man urskilja vissa mer "seriösa" och vissa mindre "seriösa" medlemmar av gruppen.
När kvantfysiken hade blivit etablerat så hade det med tiden ansetts opassande med vilda spekulationer, vilket i längden dämpade kreativiteten inom disciplinen.
Fundamental fysiks group uppmuntrade återigen vilda spekulationer vilket ledde till en del konkreta resultat och till att vissa gick utanför vetenskapens domäner.
Som historien berättas så var det ett tankeexperiment inom gruppen 1981 som gällde möjligheten att sända information fortare än ljuset. Detta visade sej dock 1982 vara omöjligt och beviset mot tankeexperimentet kan formuleras som no-cloning theorem, och detta var en slags början på kvantinformationsteorin.
Information fungerar ungefär likadant på alla nivåer i skapelsen utom på de lägsta nivåerna, som kvantfysiken beskriver. Där börjar "information" få vissa egenskaper som mer påminner om "energi" eller "materia".
Till vardags är det t.ex rätt lätt att kopiera information men svårare att kopiera objekt (Egentligen omöjligt; man kopierar bara informationen från ett objekt till ett annat objekt.)
På kvantnivån är det egentligen omöjligt att perfekt kopiera ett okänt kvanttillstånd utan att påverka tillståndet: så man kan egentligen inte kopiera kvantinformation. Om detta vore hela historien så skulle t.ex kvantdatorer vara en omöjlighet, men istället så tvingas forskarna att hitta på vägar kring detta hinder.
Förutom no-cloning-theorem så finns även t.ex no-communication theorem, no-hiding theorem, no-broadcast theorem, no-deleting theorem osv.
No-cloning och no-deleting theorems är konservationslagar för kvantinformation, som varken kan skapas ur intet eller utplånas spårlöst.
Kvantinformationsteorin är det teoretiska ramverket för t.ex kvantkryptografi och kvantdatorer, vilket nästan är aktuella tekniker redan idag.
Gunnar Nordström skapade sin första gravitationsteori 1912, och den andra 1913. Dock var det först 1914 som han gjorde något historiskt, nämligen skapade den första fysikaliska teorin i fler än fyra dimensioner. Han skapade då en femdimensionell gravitationsteori och upptäckte att den även kunde förklara elektromagnetismen. Han korresponderade en del med Einstein som först blev mycket intresserad av Nordströms nya teori, som hade flera intressanta egenskaper. Efterhand så avtog dock Einsteins intresse och Nordström blev bortglömd.
En fysiskalisk teori i flera dimensioner kallas idag en Kaluza-Klein-teori efter två andra teoretiker som var för sig under 1920-talet fick idén. Utmärkande för Kaluza-Klein-teorier är att de extra dimensionerna kan vara "ihoprullade" och inte märkas på världens struktur i stort. Om t.ex ett starkt gravitationsfält skulle göra allting i världen till en tvådimensionell yta så skulle ingen märka att världen egentligen var tredimensionell.
John Archibald Wheeler introducerade 1937 Scattering matrix, S-matrix, och Heisenberg föreslog 1941 att S-matrisen skulle ersätta modellen med tid och rum för att beskriva fysiska händelser. Heisenberg kände att man inte riktigt greppade tid och rum när man studerade partiklar påverkade av den starka kärnkraften. S-matrisen kopplar ett invärde till ett utvärde i ett experiment. S-matrisen var ett alternativ till kvantfältteori. Heisenbergs engagemang i s-matrisen kan ha hindrat utvecklingen av annan forskning som t.ex teorin om kvarkar. S-matrisen blev förlegad under 60- och 70-talet men har en likhet med den senare holografiska principen.
1958 utvecklades bootstrap-modellen ur s-matrisen. Den skiljde inte på elementära och sammansatta partiklar och tillät oändligt många sorters partiklar. När kvarkar och gluoner upptäcktes så konkurrerades bootstrapteorin ut av kvantkromodynamiken.
1968 skapades dual resonance model för att beskriva banorna hos partiklar som interagerade via den starka kärnkraften. Veneziano använde sej av Eulers beta-funktion från 1700-talet i sammanhanget. Dual resonance model var populär fram till 1974 när kvantkromodynamiken konkurrerade ut tidigare teorier.
1968 och -69 såg minst tre separata forskare att Eulers beta-funktion kunde tolkas konkret som vibrerande strängar. Strängteorin var född men blev snart ointressant när kvantkromodynamiken intog scenen.
1974 upptäckte tre olika forskare att strängteorin innehäll gravitoner och menade att den var en mycket mer omfattande teori än vad man hittills hade antagit. Strängarna tycks vibrera och varje vibrationsmönster tycks motsvara någon partikel. Var alla partiklar bara strängar som vibrerade på olika sätt? Först innefattade strängteorin bara bosoner (kraftpartiklar) och för att innefatta även fermioner (materiapartiklar) så utvecklades 1971 supersymmetrin och den supersymmetriska strängteorin, supersträngteorin.
Om supersymmetrin vore perfekt så skulle varje boson motsvaras av en fermion och de skulle bara skiljas åt av sitt spinn, där bosoner skulle ha helspinn och fermioner halvspinn. Supersymmetri, SUSY, importerades snart till standardmodellen och till gravitationsteorin. Kombinerar man generella relativitetsteorin med SUSY så får man supergravitation, SUGRA. Både MSSM och SUGRA var livliga forskningsfält under 70-talet. En 11-dimensionell SUGRA var den första kandidaten till att vara en TOE och fick därför mycket uppmärksamhet. Inom SUGRA arbetade man bl.a med "p-branes".
Supersträngteorin visade sej behöva tio dimensioner för att vara motsägelsefri. De sex extra dimensionerna visade sej vara dolda i något som kallades Calabi-Yau-rum. Pga att det fanns tio dimensioner så blev det istället möjligt att skapa fem olika supersträngteorier.
En stormig natt 1984 löstes en anomali inom strängteori (med svaret 496, ett perfekt tal) och "första supersträngrevolutionen" inträffade. Det verkar som att strängteorierna kan göra allt som standardmodellen kan, plus förklara gravitationen. I två år är supersträngteori superhett. Sen lugnade det ner sej ett tag.
1989 upptäcktes d-branes av flera olika forskare. En brane kan vara en punkt (ett 0-bran), en sträng (ett 1-bran), ett membran (ett 2-bran) osv. 1995 insåg Polchinski att d-branes inom strängteori var identiska med p-branes inom SUGRA. Detta inledde den andra supersträngrevolutionen.
1994 visar Edward Witten visar att de fem supersträngteorierna och den 11-dimensionella supergravitationen sitter ihop i en stor bakomliggande teori, som döps till m-teori. De olika supersträngteorierna kan översättas till varandra, enligt vissa metoder. Branes är nu mer grundläggande än strängar. Det verkar vara ett enkelt generiskt begrepp, som en "topologisk mångfald".Det mest allvarliga kritik som man kan rikta mot m-teorin är att den inte existerar ännu, annat än som idé.
Icke desto mindre så görs framsteg. Det visar sej att informationsinnehållet i ett svart hål beskrivs av ytan och inte volymen. Detta är överraskande och har i slutändan lett till frågan om hela universum är ett hologram. Jag har skrivit lite om det tidigare. Den holografiska principen är på något sätt en ättling till s-matrisen.
"Brane"-begreppet kan användas för att bygga upp en hel kosmologi. Detta kan möjligtvis leda till vissa empiriska förutsägelser.
I slutet av 90-talet finns det många möjligheter till teoretisk utveckling inom m-teori-paradigmet, men det är tungt och det går trögt. Matematiken växer snabbt till orimliga proportioner.
I början av 00-talet visar sej m-teorin kunna beskriva ett mycket stort antal universum, men inte kunna förklara mer exakt varför vårt universum ser ut precis som det gör. 2004 är det en debatt mellan Smolin och Susskind om man kan använda antropiska principen inom vetenskapen. Smolin är emot medan Susskind, som var en av de som först skapade strängteorin 1969, är för.
De flesta strängteoretiker verkar bekymmerslöst utgå från köpenhamnstolkningen men en del närmar sej istället Många Världar Teorin; ingen verkar låtsas om mer exotiska alternativ.
Man har hittat 2012 higgsbosonen men ännu inga superpartners , som förutspås av SUSY som först förutspåddes av strängteorin. Det är fullt möjligt att de är för tunga för att ha upptäckts ännu, men än så länge så finns det inga direkta bevis för SUSY, som är en viktig princip, inte bara för sträng- och m-teoretiker.
Det sägs att strängteori och m-teori inte är empiriskt bevisat, men m-teorin spottade spontant ur sej gravitoner trots att ingen hade bett den om det och den sk. informationsparadoxen hos svarta hål har bara löst inom en m-teoretisk ram. Teoretiskt har m-teorin varit rätt produktiv. Brian Greene, Edward Witten m.fl. har som fysiker bidragit till den matematiska forskningen.
Det finns många vägar som leder fram till m-teorin, som om det vore den rätta vägen, men teorin i sej själv visar sej vara en ogenomtränglig träskmark. Någon behöver bygga en bro eller finna en stig.
Ny fysik har ofta utvecklats samtidigt som ny matematik; partiella differentalekvationer hör samman med den klassiska fysiska epoken under 17- 18- och början av 1900-talet. funktionsanalys utvecklades samtidigt med atomteorin och kvantmekaniken gruppteori var först matematiken för relativitetsteori och kvantfältteori men ersattes alltmer av topologi
M-teorin däremot har inte kommit med någon ny matematik. Visst finns det en del mindre nyheter men ingen ny matematisk disciplin eller så. Eftersom matematiken ofta sväller över alla breddar så kanske en ny matematik är det som saknas?
… och snart är det 100 år sedan Gunnar Nordström …
Gravitationsteorins historia kan delas in i tre epoker: Aristoteles, Newton och Einstein. På sätt och vis så är det ännu Einstein som gäller idag.
Ibland sägs det att relativitetsteorin och kvantfysiken skulle vara oförenliga för att de har olika förutsättningar, men postulerar man en graviton inom kvantteorin så förutsägs det mesta av gravitationen inom de flesta situationer.
En viktig skillnad mellan den generella relativitetsteorin och kvantfysiken är att kvantfysiken naivt förutsätter absolut tid och rum som bakgrund för kvanthändelserna, vilket i den normala skalan för kvanthändelser fungerar bra.
Enligt generell relativitetsteori så är det dock inte sant. Men den dynamiska rumtidsväven är bara märkbar vid större energier, massor, hastigheter, avstånd osv.
Under vissa extrema omständigheter, speciellt singulariteten i svarta hål och vid big bang, krävs dock att relativitetsteorin och standardmodellen samarbetar på ett sätt som inte är möjligt idag.
Den generella relativitetsteorin förblev ohotad fram till 1980-talet. Förutom önskan att skapa en gemensam teori för alla fundamentala krafter så blev även galaxernas rotation och universums inflation frågor för gravitationsteoretikerna. Dessa "förklaras" nu av mörk materia och mörk energi. Andra frågor, som pioneeranomalin, finns även.
Vissa försök att omformulera gravitationsformlerna har gjorts, som AQUAL och Moffat. Mera arbete läggs dock på att kvantifiera gravitationen eller eftersträva en Grand Unified Theory än på att underkänna Einstein.
Det finns tre huvudkandidatertill gravitationsteori: quantum gravity, m-theory och loop quantum gravity. Ett överflöd av mindre upphaussade alternativ existerar. Alla tre huvudkandidater förutsätter existensen av gravitonen. Gravitonen, och andra partiklar, tycks bäst kunna "förklaras" av m-teorin, som strängar som vibrerar på olika sätt i flera dimensioner. M-teorins brister är att den är empiriskt obevisad och teoretiskt ohanterlig.
LQG, m-teori, E8 och casual sets är förslag till GUTs. Casual sets är ett försök att tolka rumtiden som diskret eller pixelerad. (Vilket kanske relaterar den till LQG?)
Kanske är m-teorin och LQG bara haussade för att de förutsätter gravitonen? Andra alternativ har mindre gemensamt med standardmodellen, som entropic gravity och superfluid vacuum.
Teorin med entropisk gravitation förutsätter ingen graviton, och till skillnad från higgs-bosonen så är ju gravitonen inte experimentellt bevisad. Den entropiska tanken kan även utvidgas:
"Erik Verlinde's proposal of the emergence of the gravitational force as an entropic force is extended to abelian and non-abelian gauge fields and to matter fields. This suggests a picture with no fundamental forces or forms of matter whatsoever." http://arxiv.org//abs/1008.4147
Detta kanske gör entropic approchen besläktad med stochastic intepretation inom kvantmekaniken? Att allting uppkommer ur kaos och det finns egentligen inga fundamentala lagar eller elementära partiklar? Vilket även BranchingSpaceTime är förenlig med?
Superfluid vacuumtheory kan liknas vid en modern eterteori. Universum är ett stort Einstein-Bose condensat. Både gravitoner och gravitationsvågor verkar tveksamma inom SVT, men det finns en egen gravitationsteori.
Den mest bevisade teorin för gravitationen hittills är generell relativitetsteori som beskriver gravitation som en krökning av rumtiden, utan gravitoner. Inom m-teori så är dock själva rumtiden en speciell vibration hos gravitoner i ett gravitonfält. Kanske kan man urskilja ungefär fyra olika typer av gravitationsförklaringar:
1. Gravitoner och ett motsvarande kvantfält (quantum gravity) 2. Ett BEC-fält (SVT) utan gravitoner inom klassisk rumtid. 3. Rumtidsgeometri (generell relativitetsteori) 4. Gravitoner skapar själva rumtiden (m-teori)
Vad är massa egentligen? Enligt higgsteorierna så är massa en form av "drag" (eng.) eller friktion.
Själv tänkte jag en gång att tunga och tröga processer i en dator beror på ett överskott av (ofta redundant) information och att i analogi med detta så kan tröghet i verkliga livet förklaras som en informationslastad process, inom en informationsfysisk världsbild.
Det finns ett flertal kandidater till en massa-skapande-mekanism inom fysiken. Många av dem har dock problem med att higgs-bosonen verkar ha bekräftats.
Teorierna kan delas in i de som kopplar samman massa med gravitiation och de som inte gör det. Higgsförklaringen hör till dem som förklarar massa och gravitation som två separata fenomen som inte har speciellt mycket gemensamt.
Modeller som blandar in gravitation tycks mej intressantare. Jag gillar gemensamma lösningar snarare än separata.
Av massa-och-gravitations-teorierna så är det speciellt dessa två som verkar intressanta:
Extradimensionella lösningar kan relateras till både technicolorlösningen och till unhiggslösningen. (Det är intressant att knyta ihop flera olika lösningar.)
Preonlösningar (förenliga med loop quantum gravity) förklarar massans ursprung och även elektrisk laddning och färgladdning. (Det är intressant att förklara flera olika saker.)
Tyvärr så har preonteorier och extradimensionella lösningar svårt att hantera att higgsbosonen verkar vara bekräftad.
Superfluid-vakuum-teori kan innefatta en partikel som påminner mycket om higgsbosonen. Det är en teori som kopplar massa med gravitiation och som även verkar intressant på andra sätt.
Den sista gravitations-massa-teorin som nämns, Unitary Weyl gauge, är återigen en higgslös teori.
Bland teorierna som skiljer på massa och gravitation så faller de flesta av en bekräftad higgsboson.
Technicolor-teorier förutsäger inte higgsbosonen men kan anpassas till att accepera den.
Unparticle-modeller kan också anpassas till de nya resultaten.
UV-Completion by Classicalization kan också anpassas till de nya resultaten.
De övriga teorierna som skiljer mellan massa och gravitation; sammansatta W och Z-bosoner, topp kvark kondensat, ickelinjära svaga interaktioner och symmetribrott ovanför den elektrosvaga skalan, verkar alla falla av en bekräftad higgsboson.
I standardmodellens barndom så upptäckte man snart ett teoretiskt problem, nämligen att alla partiklar beskrev som masslösa. Partiklarna skapades av fält och kunde bara få sin massa från dessa fält, men om man tillskrev fälten massa så skapades oändliga värden i teorierna, som man inte ville ha och inte kunde göra sej av med. Men om partiklarna inte kunde få sin massa från sina fält, var kom den då ifrån?
1964 publicerades samtidigt tre olika arbeten som beskrev snarlika svar på problemet. Man behövde gaugeteori, ett spontant symmetribrott och ett extra fält.
Genom gaugeteori kan masslösa partiklar under lokala omständigheter uppvisa massa. Denna massa är dock inte gaugesymmetrisk eftersom den bara finns enligt vissa gaugeteorier.
Det extra fältet, higgsfältet, ger alla partiklar deras massa, som fältet innehåller i form av energi. Utan higgsfältet så skulle alla partiklar vara masslösa och ständigt flyga med ljushastighet. Vid tillräckligt hög temperatur så är alla partiklar tydligen masslösa men när temperaturen sjunker tillräckligt mycket så inträder ett symmetribrott och nya partiklar skapas som överför higgsfältets energi till andra partiklar i form av massa.
Ett spontant symmetribrott kan liknas vid övergången mellan fast och flytande vatten. Partiklarna och naturlagarna är identiska men vid en kontinuerlig förändring av en parameter, temperaturen, så sker vid en punkt en slags plötslig kvalitativ skillnad. (Jag har inte sett att detta kan kallas för ett bokstavligt exempel på ett symmetribrott, utan det ska bara tas som en liknelse.)
När temperaturen är tillräckligt hög så är den elektriska och den svaga kraften identiska, den elektrosvaga kraften, och de splittras först upp vid lägre temperaturer i ett symmetribrott.
Higgsmekanismen innebär att "Goldstone-bosoner" ger massa till W och Z-bosonerna, som står för den svaga kärnkraften. Vanliga materiapartiklar, fermioner, får antagligen sin massa från higgsfältet via någon "yukawa-coupling". Goldstonebosoner ska egentligen vara masslösa och om de uppvisar massa så kallas de pseudogoldstonebosoner. Jag tror att higgsbosonen kan ses som en pseudogoldstoneboson, men det är oklart.
Fotonen, som är den kraftbärande bosonen mellan elektroner, är masslös, interagerar inte alls med higgsfältet och färdas i ljushastighet.
Higgsbosonen har inget spinn, ingen elektrisk laddning, ingen antipartikel, ingen färgladdning, är chiralitetssymmetrisk och är ca 133 gånger tyngre än protonen. (Man kan även säga att den överför en 133-del av sin massa till protonen).
Pga av att den är mycket stor och interagerar med det mesta så faller den sönder mycket snabbt. Det krävs mycket energi för att skapa den och sedan så finns den inte speciellt länge. Den är därför svår att påvisa. Genom ett otal experiment lyckades man samla tillräckligt många partiklar som såg ut som spår av sönderfallande higgsbosoner.
Det är ännu inte avgjort om den är elementär eller består av mindre beståndsdelar.
Även om higgsfältet bara skapades för att förklara massa så tittar man även på om det inte skulle kunna förklara såna saker som mörk energi och mörk materia också.
Från början av 70-talet så blev "Higgs" den populära benämningen på detta teorikomplex, trots att många andra teoretiker har varit inblandade. Higgslösningen brukar kallas den enklaste lösningen på problemet med partiklarnas massa, men det finns flera andra tänkbara alternativ. "Enklaste lösningen" brukar ju ofta betyda "förändrar redan existerande teorier så lite som möjligt."
Det finns flera möjliga varianter av higgsteori, med flera olika sorters higgsbosoner m.m. Det finns även helt annorlunda teorer som t.ex saknar higgsboson helt. Vissa av dessa alternativ är t.o.m. förenliga med higgsbosonen, men säger sej ge mera grundläggande lösningar. Jag ska titta lite på alternativen.
Det finns många myter och folkliga föreställningar om hyenor. De värderas huvudsakligen negativt och betraktas med rädsla och förrakt. Man tror att de stjäl boskap och barn och gräver upp gravar. De associeras med förräderi, dumhet och feghet, de betraktas som omoraliska och smutsiga och som hemafroditer. De associeras även med häxkonst och det finns historier om människor som förvandlas till hyenor, likt varulvar. På plussidan så används kroppsdelar av hyenor i den magiska folkliga medicinen.
Hyenor är mera släkt med katter än med hundar. Katter och hundar hade gemensamma förfäder för ca 40 miljoner år sen. Hyenor uppstod för ca 22 miljoner år sen. Många tycker att de ser ut som ett mellanting mellan katter och hundar eller att de mer liknar hundar (vargar) än katter. För ca 15 miljoner år sedan så fanns det många arter av "hundliknande" hyenor som dock dog ut för ca 1,5 miljoner är sen (föutom en lien art - aardwolf).
För ca fem miljoner år sen blev dåtidens hyenor huvudsakligen asätare och levde av vad sabeltandade tigrar lämnade efter sej.
De fyra stora arterna av hyenor idag har ett ganska starkt bett, starkare än vargars och björnars t.ex. De lever oftast i andras djurs gryt och hålor.
Alla hyenor har en kal pung, dvs hudficka, nära analöppningen som innehåller ett vitt, luktande sekret som de markerar revir med.
Fläckiga hyenor kan producera en mängd olika ljud medan de andra är tystare. Den fläckiga hyenan har sagts låta som ett hysteriskt människoskratt. Att "skatta som en hyena" är ett etablerat uttryck. Fläckiga hyenor kallas även "skrattande hyena".
Fläckiga hyenor är huvudsakligen köttätare och jagar i flock på ett vargliknande sätt. Hyenor är allätare och har även tagit människor, men det är ovanligt. När de ger sej på människor så brukar de bita i ansiktet och försöker släpa bort det ännu levande offret.
Även om de är bra på att sammarbeta när de jagar så brukar de slåss när bytet är fällt. De vill helst åt delarna kring analöppningen och ljumskarna och sedan tarmarna och organen i magen. De äter allt och kan även äta benen, inte bara märgen.
Fläckiga hyenor har ungefär samma byten som lejon och de konkurrerar därför. Det händer att lejon och hyenor dödar varandra utan uppenbar orsak och vid ett tillfälle tycks ett veritabelt krig mellan lejon och hyenor ha utbrutit.
Fläckig hyena (crocuta crocuta) är även känd som skrattande hyena. De lever i matriarkala flockar på upp till 80 individer. Även om de betraktas som fega och dumma asätare så lever de huvudsakligen av jakt och är intelligentare än vad folk brukar tro. Fläckiga hyenor behöver med sina starka käkar inte vänta på att bytena har dött innan de kan äta dem. I test så har deras intelligens visat sej kunna tävla med chimpanser.
Fläckiga hyenor är mycket sociala djur och uppvisar ganska avancerat socialt beteende. Dominansen i flocken tycks bestämmas av vilket socialt nätverk som man har byggt upp. Flocken leds av en ensam alfahona. Forskarna vet inte riktigt varför fläckiga hyenor är matriarkala eller varför honorna liknar hanar så mycket. Högstatushyenor brukar ge sin avkomma högre halter av testosteron i livmodern, än hyenor med lägre status, så de anatomiska egenheterna kan vara en följd av den sociala matriarkala strukturen.
Lägre stående djur kan ofta vara matriarkala men det är inte lika vanligt hos högre stående djur. Elefanter är dock ett exempel på undantag. Till skillnad från elefanter så är dock hyenor aggressiva rovdjur. Hos fläckiga hyenor så tycks kombinationen av matriarkat och aggressivitet ha fått negativa biologiska bieffekter. Honorna är mer maskulina än hanarna vilket gör att de har svårt att fungera som honor, inte minst när de ska föda.
Hos den fläckiga hyenan så är honorna större än hanarna och deras yttre könsorgan liknar även hanars. Klitoris kan bli 15 cm lång och kan få erektion.
Födseln brukar vara svår eftersom honorna måste föda genom sin klitoris (!). Blygdläpparna är nämligen ihopvuxna till nånting liknande en pung. Dödligheten under födseln hos både mödrar och barn är därför högre än hos t.ex andra hyenor. Hur detta bisarra system har uppkommit är ett mysterium för forskarna. Ungarna föds med öppna ögon och stora tänder och brukar ibland attackera varandra så snart de är födda. Det är inte ovanligt att den svagare ungen dödas.
Hanar som närmar sej brunstiga honor uppvisar underkastelsebeteende och passiva hanar brukar få para sej oftare än aggressiva hanar. Honor tycks föredra att para sej med yngre hanar. De bildar inga partnerskap. Honorna tar ensamma hand om ungarna och avvisar aggressivt hanarna.
Gadawan Kura kallas män som hanterar (inte speciellt) tama hyenor. En del reser omkring och visar upp konster med dem men andra är bara hardcoregangsters med riktigt brutala husdjur.
Man brukar säga att det finns fyra fundamentala krafter inom fysiken.
Den starka växelverkan för partiklar och atomkärnor.
Den svaga växelverkan förvandlar partiklar till andra partiklar.
Elektromagnetismen bygger även upp atomer och sen mer komplexa molekyler.
Gravitationen drar samman partiklar, atomer och molekyler till astronomiska objekt.
Kvarkar föreslogs teoretiskt först 1964.
Den starka växelverkan binder ihop kvarkar till protoner och neutroner, som tillsammans kallas nukleoner. Kvarkarna utväxlar gluoner med varandra som förmedlar den starka växelverkan. Gluoner är masslösa och har spinn ett. Den starka växelverkan håller även ihop protoner och neutroner i atomkärnor, men då med kraftpartiklar som kallas pioner och som finns i tre varianter.
Kvarkar påträffas aldrig fria under normala omständigheter. Det heter att kvarkarna är innestängda i hadroner, confinement. När man splittrar nukleoner i partikelacceleratorer så skapas ögonblickligen komplement, andra kvarkar, till de fria kvarkarna så att de inte kan vara ensamma. Hur detta sker, hadronisering, "är inte väl förstått".
Eftersom gluoner kan växelverka med andra gluoner så blir den starka växelverkan starkare ju längre ifrån varandra som kvarkarna är, men om spänningen blir för stark så kan istället nya kvarkar skapas i mellanrummet.
Dock så har en typ av kvarkar, toppkvarken, så kort livslängd att den inte hinner få en partner, och därför anser man nu att man i experiment har sett ensamma toppkvarkar. Det är även så att vid extremt höga temperaturer så ersätts confinement av asymptotisk frihet vilket innebär att kvarkarna i allt högre grad kan röra sej fritt och obehindrat.
Vid Big Bang så tror man att det fanns en kvark-gluon-materia som snarare påminde om en vätska än om plasma, som man annars kan vänta sej vid mycket höga temperaturer.
Teorin om den starka växelverkan kallas QCD, QuantumChromodynamics. Man känner till sex sorters kvarkar varav bara två sorter har längre livslängd och finns rikligt i universum. De sex typerna kallas för sex olika "aromer". Kvarkar har även en unik kvarkegenskap som kallas för färgladdning. Kvarkar kan vara "röda", "blå" eller "gröna". Detta har ingenting med riktiga färger att göra utan är bara ett poetiskt namn på något egentligen okänt. Samspelet mellan kvarkar och gluoner påminner lite om elektroner och fotoner.
Den svaga växelverkan kan förvandla vilken fermion som helst till andra partiklar. Termen QuantumFlavourDynamics används aldrig eftersom man bara jobbar med den elektrosvaga kraften. Svag växelverkan och elektromagnetism visades 1968 vara två varianter av samma fundamentala kraft.
Den svaga växelverkan orsakar radioaktiv strålning, är med i fusionsreaktionen som driver solen, och gör så att kol-14-metoden fungerar. Dess kraftpartiklar, w och z bosoner, är stora och tunga för att vara kraftpartiklar, vilket förklarar varför den har så kort räckvidd, egentligen bara inom en atomkärna.
Av de fyra fundamentala krafterna så verkar annars den svaga växelverkan vara den minst nödvändiga.
Eller kanske inte. Universums fysik verkar vara svår att förändra utan att universum blir obeboeligt.
Den svaga växelverkan har en assymmetrisk egenskap som gör den till en kandidat för att förklara varför det verkar finnas mer materia än antimateria i universum.
Stark växelverkan och elektrosvag växelverkan är det som Standardmodellen handlar om. Vad den inte innehåller är främst en teori om tyngdkraften, men det finns även en del andra oklara frågor.
Det finns ingenting i standardmodellen som kan förklara mörk materia eller mörk energi.
Man har inte hittat gravitonen eller Higgs-partikeln.
Inte heller förklarar standardmodellen varför partiklarna har just de massor som de har. Det finns över tjugo olika variabler i modellen som man bara har bestämt utifrån experiment och inte har någon helt utömmande teoretisk förklaring till, och massorna är en av dessa variabler.
Så varför inte låta verkligheten beskrivas av standardmodellen + en teori om gravitationen? Fysiker har i generationer strävat efter att skapa en enda sammanhängande teori för hela fysiken. Att universum skulle behöva två olika teorier för att beskrivas vore "oestetisk"; metafysiskt motbjudande. Strävan efter sammanhang och enhet liksom efter enkelhet och "skönhet" har många gånger visat sej leda vägen till nya upptäckter.
1930 publicerades Ambarzumian-Ivanenko hypotesen som sa att alla sorters partiklar kunde skapas ur kvantfält när andra partiklar samverkade med varandra.
Inom kvantfältteorier så uppstår partiklar ur underliggande kvantfält, vilket får dem att se ut som att de uppstod ur tomma intet. Fält betraktas som mer grundläggande än partiklar men samtidigt så har man ingen direkt tillgång till fälten utan dessa kan enbart utforskas via partiklarna. Krafter överförs även via partiklar och relationer mellan partiklar kan konkretiseras till nya partiklar. Alla partiklar kan omvandlas till andra partiklar. Detta ledde sen till en teori om att det egentligen inte fanns några fundamentala partiklar. S-matris-teorin och bootstrap-teorin blev föregångare till strängteorin.
Våg/partikel-dualiteten säger att alla partiklar även har vågegenskaper, men Heisenbergs osäkerhetsrelation kan tolkas som att alla partiklar egentligen är en sorts vågor tills vi observerar dem. (Och en "observation" kan tolkas som "entaglement")
Ursprungligen sågs alla partiklar som matematiska punkter utan rumslig utsträckning, vilket antagligen var ett misstag som ledde till teoretiska svårigheter.
Protonen är bara lite lättare än neutronen men elektronens massa är 1/1386 av protonens. Detta brukar anges som att elektronen är så mycket "mindre" än protonen. Men jag har också hittat att radien på elektronens vågpaket i själva verket är flera gånger större än protonen. Att försöka ange en absolut storlek till dessa saker verkar vara att gå bortom dagens vetenskap.
Det visar sej även att det går att "dela" elektronen. Elementarpartiklar ska man ju inte kunna dela. Det finns även s.k. kvasipartiklar som har en del egenskaper som elementarpartiklar har, som t.ex spinn eller elektrisk laddning, utan att vara elementarpartiklar.
Vad betyder det att man ser svag växelverkan och elektromagnetism som två varianter av samma kraft? Vid mycket höga temperaturer så så blir de identiska. De får samma partiklar och samma egenskaper. Vid Big Bang så var de två krafterna först en kraft innan universum svalnade av och de splittrades i två. Man tror även att vid mycket höga temperaturer så kan även den starka växelverkan och kanske även gravitationen smälta samman med de övriga krafterna.
Detta är ju mycket intressant men väcker flera frågor. Varför splittras den ursprungliga Kraften upp i 3-4 olika krafter vid lägre temperaturer? Är dessa fortfarande att betrakta som varianter av varandra? Och varför verkar universum vara finsjusterat för liv?
När jag ställer "varför"-frågan så är jag inte ute efter någon gudomlig avsiktsförklaring, utan mera nånting i stil med en teoretisk kontext. Många av dessa resultat svävar i ett filosofiskt vakuum.
People are always asking for the latest developments in the unification of this theory with that theory, and they don't give us a chance to tell them anything about what we know pretty well. They always want to know the things we don't know.
Så kvantfältteorin var uppfunnen under 1930-talet, men egentligen var det mest bara grunderna som var lagda. En större tillämpning av teorin skulle snart komma. Den hette Quantum ElectroDynamics.
QED är en perturbationsteori eller störningsteori, dvs ingen exakt utan en ungefärlig beskrivning av verkligheten. Man tar den närmaste beskrivningen som stämmer bäst och lägger till lite extra matte för att få den att stämma helt. Denna innebär att de grundläggande ekvationerna inte är helt perfekta.
Nästa problem är att i varje situation så är möjligheterna egentligen oändliga. Detta beskrivs delvis av pathintegralekvationen men inom QED så har det snarare att göra med renormaliseringen, som innebär att när det dyker upp oändligheter i ekvationerna så avlägsnar man dem för att få ekvationerna att likna verkligheten igen. Feynmann gillade aldrig renormalisering utan såg det som en pragmatisk nödlösning. Trots detta så har renormalisering blivit mycket vanligt inom senare kvantfältteori.
Renormaliseringen uppfanns 1947 och arbetet med QED skedde främst under 1940-talet. 1965 fick Sin-Itiro Tomonaga, Julian Schwinger och Richard Feynman nobelpriset för sitt arbete med QED. Förutom dessa så hade även Freeman Dyson bidragit till teorin. Det är dock Feynman som har fått mest uppmärksamhet, delvis för att han har skrivit en populärvetenskaplig bok om QED och var ett tacksamt intervjuoffer osv.
Att vad som helst kan hända och att möjligheterna är oändliga betyder framförallt att partiklar tycks uppstå och försvinna ur intet hela tiden. Partiklar förvandlas även rätt ofta till andra partiklar, eller så kan en elektron förvandlar till en elektron och en foton o.dyl. Den "lägsta energinivån" är inte noll och även i ett "kvantvakuum" så händer det saker, hela tiden, vilket kanske inte är vad man förväntar sej av ett vakuum.
Trots allt detta som jag nyss skrev så är QED med och tävlar om platsen som den mest bevisade vetenskapliga teorin i världshistorien. Den beskriver hur ljus interagerar med materia. Ljus består av fotoner och materian får sin form och volym från elektronerna i elektronskalen. Materians hårdhet är ett slags elektriskt fenomen. Fotoner är de energipartiklar som elektroner kommunicerar genom. Quantum ElectroDynamics - blir i en direkt fulöversättning ung. "elektronernas kvantifierade dynamik".
Det är i detta arbete som Feynman presenterar sina feynmandiagram först. Dessa har blivit mycket populära och använda, trots att de egentligen bara är en pedagogisk förenkling. Men det är en av Feynmans starka sidor; att plocka ner en kaotisk situation på jorden och göra den hanterlig.
Vågfunktionen och superpositionen tolkas här som sannolikhetsfördelning och eftersom vågfunktionen redan beskrevs med komplexa tal så beskrevs sannolikheter här även med komplexa tal , istället för med reella tal som tidigare.
QED sågs som en stor framgång och har varit en viktig inspirationskälla för senare teorier. "QED" är ju även en förkortning inom matematiken för "quod errat demonstrandum", vilket betyder "vilket skulle bevisas" och förr skrev matematiker det i slutet av ett arbete efter ett lyckat matematiskt bevis.
Varför är elektronskalen fulla när det innersta har 2 elektroner, det näst innersta 8, nästa 18 osv? 1924 postulerade Wolfgang Pauli en extra egenskap, "two-valued quantum degree of freedom" som skulle förklara detta men som han inte visste vad det var. Paulis exklusionsprincip förklarar varför periodiska systemet finns och ser ut som det gör.
Flera teoretiker kom 1925 fram till idén med roterande partiklar och anknöt detta till Paulis extra frihetsgrad. Dirac hävdar dock att han var omedveten om allt detta när han skapade partikelspin och spinorer 1928.
Pauli skapade 1927 en föregångare till Diracs ekvation 1928. Han vidareutvecklade Schrödingers ekvation men nådde inte hela vägen fram. Den är ickerelativistisk men förutspår spinn.
Schrödinger upptäckte först kleingordonekvationen men förkastade den och försökte igen. 1926 återupptäckte Klein-gordon den när de försökte kombinera Schrödinger med relativitet. Ekvationen är relativistisk och kan förutspå läget för kvantpartiklar men förutspår inte spinn.
Dirac tog kvantmekanik och relativitetsteori och kombinerade dem och fick partikelspinn och en kvantifierad fältteori, där de kvantifierade fälten är partiklar.
Jag har undrat varför spinn uppkommer om man relativiserar kvantmekanik men har inte fått något begripligt svar. Tydligen undersökte Einstein med en assistent i början av 30-talet spinnteorin och godkände den.
Både Schrödinger och Diracs ekvationer är vågekvationer. Ljushastigheten c finns med i ekvationen och tid och rum hanteras som likvärdiga dimensioner. Diracs ekvation ledde genast till nya upptäckter. Han upptäckte halvspinnet som måste hanteras med spinormatte. Han upptäckte antimateria. Den förklarade Paulis exklusionsprincip. Ett problem var dock förekomsten av negativa partiklar som fick Dirac att föreslå Dirac sea som lösning.
Materia-fermioner och kraft-bosoner skiljer sej bara åt genom sitt spinn, och ändå är de väldigt olika. Fermioner har halvspinn och bosoner har helspinn. Detta är tydligen en beteckning på hastighet. Spinnet avtar aldrig utan är alltid konstant. Det är en inneboende egenskap hos partiklarna.
Den hypotetiska higgs-bosonen antas ha spinn 0 och den hypotetiska gravitonen antas ha spinn 2.
Fermioner följer Paulis exklusionsprincip som säger att två fermioner inte kan vara i samma tillstånd och därför bygger fermioner upp de mer avancerade strukturer som kallas atomer. Bosoner däremot kan vara hur många som helst i samma tillstånd.
Inom kvantfältteori antas partiklar vara punktformiga och inte ha några delar och spin kan därför egentligen inte vara klassisk rotation. Det finns även ett problem med att partiklarna verkar rotera i överljusfart (om man inte tar hänsyn till att de inte roterar och inte har några delar).
En del av dessa obegripligheter försvinner i strängteori där partiklarna inte antas vara punktformiga, vilket löser många problem. Partiklarna ses som små strängar och deras spinn blir helt enkelt deras egenrotation. Inom kvantfältteori däremot brukar man säga att spinn inte har någon motsvarighet inom klassisk fysik.
Fermioner måste rotera 720 grader innan de har roterat ett helt varv. Går man runt en möbiusremsa så kommer man efter 360° till samma ställe men på fel sida om pappret. Går man ett varv till så kommer man till rätt sida och rätt ställe. Dirac tycks ha uppfunnit spinors oberoende av andra som hade uppfunnit spinors tidigare. Spinors representerar rotation i "n"dimensioner. En möbiusstripp roterar ju såattsäga runt sej själv i längdriktningen.
Eftersom spinn är en ny, mystisk egenskap hos partiklar, på sätt och vis parallell med t.ex laddning och massa, så har mystik och övertro knutits till det. Teorin om Torsions fields skulle förklara allt från telepati till snabbare-än-ljuset-resor mha spinn.
Det går dock att utnyttja spinnet hos t.ex elektroner. Spintronics använder sej av elektroners spinn, snarare än deras elektriska laddning, i tekniska sammanhang.
Descartes skapar den mekaniska fysiken i början av 1600-talet. Naturen blir nu något som kan beskrivas artificellt och återskapas i experiment. Något Galilei dock redan gjort i praktiken.
Newton skapar den newtonska mekaniken 1687. Med tre mekaniska lagar och en fjärde för gravitationen. De tre lagarna motsvaras idag av konservationslagar. (Muslimska vetenskapsmän hade tidigare upptäckt det mesta som Newton upptäckte.)
Grundidén är en partikel (ett objekt) som rör sej i en bana.
Lagrange ville förenkla den newtonska mekaniken och göra den lättare att beräkna. Han gjorde dock en viktig förändring när han gjorde "principle of least action" till något grundläggande. Den har rötter ända tillbaks till antiken men ofta brukar en Maupertuis anges som skapare. Dock kan Leibniz ha förekommit honom med decennier.
För Maupetruis så skapades mängden "action" av massan, avståndet och hastigheten hos en kropp, och "action" tenderades naturligt att minimeras i naturen. Utifrån två bestämda punkter så kommer ett mekaniskt system att ha tagit den mest ekonomiska vägen mellan dessa punkter efter att rörelsen är färdig. Detta innebär dock ett problem.
Descartes med flera hade kritiserat skolastikerna för att de bl.a använde sej av ändamålsförklaringar. Naturen skulle nu beskrivas enbart utifrån mekaniska principer där verkan kom efter orsak. Men med principle of least action så verkade denna kausala natursyn naggas i kanten. Hur kunde ett mekaniskt system från början bestämma sej för vilken som var den bästa vägen mellan punkt a och punkt b?
Lagrange skapade den analytiska mekaniken och det finns två varianter inom klassisk mekanik; lagranges mekanik 1788 och hamiltons mekanik 1833. Hamiltons ekvationer ska vara lite lättare att räkna med än Lagranges ekvationer eftersom de förra är förstagrads och de senare är andragradsekvationer. Hamiltons ekvationer ska också vara mer generella än Lagrange.
Hamiltons ekvation utvecklades av Jacobi till Hamilton-Jacobis ekvation som är det närmaste som klassisk mekanik kom kvantmekanik, eftersom den gäller både för partiklar och för vågor. Hamiltons ekvation har sedan anpassats till kvantmekaniken och används även där.
Norbert Wiener skapade 1921 Wiener-integralen för att beräkna stokastisk rörelse. 1933 så använde Dirac lagrangeekvationer inom kvantmekanik och använde sej av en idé liknande Wieners. Feynman vidareutvecklade Diracs arbete 1948. Feynmans path integral antar att en partikel kan färdas på ett oändigt antal sätt mellan punkt a och punkt b. Vissa sätt är dock mer troliga än andra. Efteråt så kommer partikeln bara att ha färdats längs en bana. Det som såg ut som en slags teleologi inom klassisk mekanik förklaras här som nånting liknande en vågkollaps.
Feynmans path integral visade sej enormt framgångsrik. Den har visat sej användbar i många sammanhang och utifrån den så kan man härleda Schrödinger och Heisenberg och den har ett släktskap med både Lagrange och Hamilton och den kombinerar mekanik med statistik. Den kan tolkas som ett alternativ till den konventionella kvantfältmekaniken och om man gör en filosofisk tolkning av Feynmans path integral så får man "sum over histories" approach. Det är dock en neutral ekvation som kan användas av alla och som används både inom kvantfältteori och m-teori. Inom kvantfältteori så kan den användas direkt för att beskriva ett kvantfält och beskriver då alltså inte de alternativa vägarna för en partikel.
En konsekvens är möjligheten av partiklar som färdas bakåt i tiden, vilket ger dem egenskaper av att vara antipartiklar. En elektron som åker bakåt i tiden är alltså en positron. Feynmans path integral accepterades dock inte med en gång. Man var tvungen att utveckla ny matematik för att kunna hantera fermioner.
Vissa vill kombinera pathintegralen med decoherence, men detta är ännu ett arbete i pågående.
Mot slutet av sitt liv så skrev Einstein en slags hylling till Galilei i form av en kommentar till hans En dialog om två världssystem. Einstein lyfter fram Galilei som en viktig föregångare i sin relativitet och i sin integritet gentemot auktoriteter.
Galilei visade att himlarna kunde utforskas med det nya teleskopet och att fysiken kunde utforskas med jordiska experiment. Han influerade människor som Descartes och Newton som verkade snart efter honom. Hans relativitetsteori var grundläggande ända fram till Einstein. Galilei kallas ibland den moderna fysikens fader. Einstein kallade honom den moderna vetenskapens fader. Han var den förste moderne veteskapsmannen som hävdade att naturens lagar var matematiska.
Philosophy [nature] is written in that great book which ever is before our eyes -- I mean the universe -- but we cannot understand it if we do not first learn the language and grasp the symbols in which it is written. The book is written in mathematical language, and the symbols are triangles, circles and other geometrical figures, without whose help it is impossible to comprehend a single word of it; without which one wanders in vain through a dark labyrinth.
― Galileo Galilei
Galileo takes great pains to demonstrate that the hypothesis of the rotation and revolution of the earth is not refuted by the fact that we do not observe any mechanical effects of these motions. Strictly speaking, such a demonstration was impossible because a complete theory of mechanics was lacking. I think it is just in the struggle with this problem that Galileo’s originality is demonstrated with particular force.
The leitmotif which I recognize in Galileo’s work is the passionate fight against any kind of dogma based on authority. Only experience and careful reflection are accepted by him as criteria of truth.
-Einstein
To punish me for my contempt for authority, fate made me an authority myself.
-Einstein
Den danske astronomen Ole Römer mätte 1676 för första gången ljusets hastighet, med hjälp av Jupiters månar, som Galilei upptäckt. Varför dök de ibland upp lite för tidigt och ibland lite för sent? Römer förklarade detta som en illusion som upptstod för att själva ljuset från månarna tog tid på sej att nå Jorden. Han uppskattade ljushastigheten till ca 190000km/s. Visserligen inte helt rätt men ändå ungefär rätt storleksordning på uppskattningen. Einstein fick senare formulera en ny relativitetsteori som ersatte Galileis och som innefattade en absolut ljushastighet som alltid var densamma, och som bl.a innebar att tiden gick långsammare och objekt blev ihopplattade vid mycket höga hastigheter.
Galilei beskrev naturen som en bok som man måste dechifrera och Einstein liknade naturen vid ett helt bibliotek.
I'm not an atheist and I don't think I can call myself a pantheist. We are in the position of a little child entering a huge library filled with books in many different languages. The child knows someone must have written those books. It does not know how. The child dimly suspects a mysterious order in the arrangement of the books but doesn't know what it is. That, it seems to me, is the attitude of even the most intelligent human being toward God. We see a universe marvelously arranged and obeying certain laws, but only dimly understand these laws. Our limited minds cannot grasp the mysterious force that moves the constellations.
Teorin om fysiska fält utvecklades ungefär samtidigt med den matematiska tensorteorin. Exempel på tensorer är en skalär, en vektor och en matris. En skalär är ett fast, enkelt värde som t.ex en temperatur eller en längd eller en vikt osv.
Detta kan kontrasteras mot en vektor som är ett värde med en riktning, som en vindstyrka eller en hastighet. Man kan likna en skalär med ett nolldimensionellt, punktformigt värde och en vektor med ett endimensionellt linjeformat värde (fast en linje med en riktning). En matris är ett tvådimensionellt värde och ännu högre dimensioner är fler exempel på tensorer.
Ett fysiskt fält är ett område som har en gemensam fysik. Området kan vara mycket stort eller mycket litet. En värmebölja är ett sorts fysikt fält med en temperatur som lokalt kan beskrivas med skalärer, ett skalärfält.
Om väderkartan på tv istället visar hur det kommer att blåsa över landet så visas ett vektorfält. Ett gravitationsfält är ett fysiskt fält med en riktning (nedåt) och följdaktligen så är det ett vektorfält (enligt Newton, inte enl. Einstein). Ett fält kan vara ett skalärfält ett vektorfält, ett tensorfält eller ett spinorfält. En spinor är ett slags alternativ till en vektor. Inom kvantfältteori så kan fermioner bara beskrivas av spinorfält.
Fysiska fältteorier går tillbaks till Faraday 1845. Faraday var egentligen en bokhandlare som bara råkar vara en av de mest hyllade experimentfysikerna i historien. Han föddes i en fattig familj och fick undervisa sej själv om det allra mesta. Som forskare påvisade han ett samband mellan elekticitet och magnetism, vilket Maxwell senare formulerade matematiskt som elektromagnetism. Om Faraday var praktikern så var Maxwell teoretikern. Men antagligen är det fel uttryckt. Maxwell sa att Faraday var en matematisk begåvning trots att han inte hade någon högre matematisk bildning.
Faraday talade om "lines of force" som nånting skilt från partiklar och visade att ett magnetfält kunde överföra en kraftladdning, vilket gjorde det till ett självständigt fysiskt fenomen. Han hittade även ett samband mellan magnetism och ljus. Under 1860 och -70-talet så gjorde Maxwell matematisk fysik av Faradays experiment och intuitioner.
Han gjorde minst tre olika upptäckter som förebådade kvantfysiken; faradayfält, faradayvågor och Cathode rays (1838)
En paradigmatisk händelse var när elektricitet och magnetism upptäcktes vara samma sak och två olika uttryck för ett elektromagnetiskt fält (Maxwells ekvationer). Denna bedrift har man försökt upprepa ett flertal gånger. Man har kombinerat teorier och försökt att reducera dem till något enhetligt bakomliggande.
Faraday och Maxwell hade skapat och matematiserat den klassiska fältteorin och hade knutit ihop elekticitet och magnetism och Maxwell föreslog också att ljus kunde vara en elektromagnetisk våg. Men ljus hade motsägelsefulla egenskaper. Ljus betedde sej ibland som vågor och ibland som partiklar och befann sej aldrig i vila utan hade alltid en mycket hög hastighet men dock inte oändlig hastighet som ibland hade antagits i historien. Ljusets hastighet mättes till 300.000km/sek men var alltid konstant oavsett hur ljuskällan och observatören rörde sej (vilket kunde förklaras om ljuset var en slags vågor). Fanns det någon modell som kunde beskriva alla dessa egenskaper och var den modellen en del av den klassiska fälteorin?
En hypotes som förespråkades av några var att ljuset alltid verkade ha samma hastighet eftersom mätinstrumentens form ändrades och mätte ljuset på olika sätt. En liknande förklaring kunde också förklara varför etern inte kunde påvisas i experient.
Många funktioner som etern fyllde i fysiken förr utförs idag istället av fysiska fält.
Lustigt nog antogs först allting vara relativistiskt utom just elektromagnetiska fenomen. Den klassiska mekaniken var relativistisk enligt galileis relativism, men detta gällde inte de nyupptäckta elektromagnetiska fenomenen. Lorentz upptäckte dock att de hade en alldeles egen sorts relativitet, som beskrevs av lorentztransformationer.
Lorentz utvecklade lorentztransformationer för elektromagnetiska fenomen som verkade förklara testresultat men som inte stämde överrens med Newtons och Galileis beskrivning av rum och tid eller med vardagliga erfarenheter av materiella objekt.
Enligt Galilei kunde vad som helst beskrivas som att det var i vila om man antog att allt annat rörde sej. Om något rörde sej eller var i vila berodde på referensramarna, vilket bland annat förklarade varför jorden inte verkade röra på sej trots att den gjorde det. Olika referensramar kan sedan översättas till varandra. Detta är den galileiska relativiteten.
Elektromagnetism och mekaniska fenomen var dock experimentellt relativistiska till varandra så samma relativitet borde gälla för bägge. Var mekaniken egentligen lorentzcovariant eller var elektromagnetismen egentligen Galileicovariant? Lorentz antog att mekaniken egentligen var lorentzcovariant.
Lorentztransformationer innebär att man utgår från lokala referensramar för olika observatörer som man sedan försöker att översätta till varandra. Detta gällde dock även galileisk relativitet. Den stora skillnaden är den absoluta ljushastigheten som alltid är densamma i alla refensramar enligt lorentztransformationerna. Och detta fick även andra följdeffekter.
Lorentz och matematikern Poincaré har runt 1905 en mängd hypoteser som ganska väl beskriver situationen men som kanske inte känns riktigt eleganta som en teoretisk helhet. Det är då Einstein publicerar sin speciella relativitetsteori. Han tolkade lorentztransformationerna som något mer grundläggande än bara gällande elektromagnetism eller kanske t.o.m. mekaniska fenomen. Lorentztransformationerna beskrev själva rummet och tidens form.
Därmed har vi egentligen lämnat den klassiska fältteorin, även om fältteorierna kan omformleras inom en einsteinrelativistisk ram.
Däremot så uppstår snart kvantfältteorin. Samtidigt som sin speciella relativitetsteori så hade Einstein även publicerat sitt arbete om den fotoelektriska effekten, vilket var viktigt för den nya kvantfysiken.
Har du hört talas om gaugeteori? Den är en del av kvantfältteori och poppar ofta upp i samtida fysik. Men det verkar inte helt lätt att sätta sej in i vad det egentligen är för något.
Själva namnet - gauge - visar att detta ursprungligen bara sågs som ett teoretiskt mätproblem. Inte som dolda egenskaper hos verkligheten. "Gauge" kan betyda kaliber och storlek. Men när man kalibrerar mikroskopet för att ställa in fokus så upptäcker man plötsligt saker som man aldrig har sett förut.
Att välja gauge kan liknas vid att bestämma ett mätevärde för det bakomliggande osyliga. Olika formuleringar kan anta olika saker om den lokala miljön trots samma resultat.
Först sågs gauge som att välja den bästa formen på beskrivningen/teorin, men från Yang-Mills 1954 uppkommer idén med ett konkret existerande gaugefält, som skapar virtuella partiklar. Ett kvantifierat gaugefält är samma sak som gaugebosoner.
Materiepartiklar, baryoner och sånt, påverkar varandra genom kraftpartiklar, bosoner. En boson som en foton t.ex är universellt massalös men kan i ett lokalt gaugefält ändå uppvisa massa.
Istället för universella symmetrier så får vi lokala symmetrier som innebär ett symmetribrott med de universella symmetrierna. Två partiklar möts, vänder lagboken ryggen och gör en lokal överrenskommelse. De gör ett hemligt utbyte som bägge är nöjda med.
Redan Maxwells elektromagnetism 1864 uppvisade egentligen gaugesymmetrier men detta uppmärksammades och förstods inte förrän senare. Gaugesymmetrier är likheterna mellan alternativa gaugeteorier och översättningen dem emellan kallas "gaugetransformation". Alla möjliga gauger till en teori kallas en gaugegrupp eller symmetrigrupp. Det som kan beskrivas på olika sätt kallas "gaugepotential".
Det tog lång tid innan gaugeteorin förstods och accepterades. När man fördjupar sej i en massa krånglig matematik så får man det oväntade resultatet att något uppstår ur intet. Virtuella partiklar kan inte observeras direkt empiriskt. Klentrogna fysiker upptäckte dem rent matematiskt. De virtuella partiklarna måste åenasidan kunna få massa öht och åandrasidan inte bli oändligt tunga. Det senare löstes först 1971 och först nu började gaugeteorier få mer uppmärksamhet.
Under 70-talet upptäkte man ett släktskap mellan gaugeteori och differentiell geometri, som redan användes i relativitetsteori. En gaugepotential är nu en "connection" på en "fibre bundle".
En del är rent lyriska över den djupa, meningsfulla matematiken och ser gaugeteori som framtiden. Lokala symmetrier ses som mer grundläggande än globala symmetrier. Men gaugeteori ses också som nånting fortfarande gåtfullt och inte helt förstått. Det sista kan jag relatera till.
För syn och hörsel åtminstone så tycks skönhet och behag vara nära förknippat med harmoni och symmetri. Harmoni och symmetri återfinns ofta inom estetik och symbolik. Utanför psykologin och humanioran så har symmetri även visat sej vara av tung vikt för både matematik och fysik, och återfinns även inom kemi, biologi osv.
Symmetri är inte identiskt med matematisk skönhet i stort. Även om det finns många olika sorters symmetri så är det bara ett exempel bland flera på matematisk skönhet. Symmetri utforskas inte minst av gruppteori.
1915 upptäckte den tyska matematikern Emmy Noether att olika symmetrier hos fysiska system exakt överensstämde med olika konserverings- eller bevarandelagar inom fysiken. T.ex så motsvarar principen om energins bevarande naturlagarnas tidsinvarians. Noethers teorem (publicerad 1918) är en både praktiskt och teoretiskt viktig grund för senare fysik.
"it is only slightly overstating the case to say that physics is the study of symmetry."
-Nobel laureate PW Anderson
Symmetri betyder inom fysiken idag att något förblir detsamma trots att en förändring finns närvarande. Fysiker söker likheter och regelbundenheter.
Om vissa partiklar har vissa varianter av sej själva, är det då inte värt att undersöka om inte fler har det? Idén med "supersymmetri" skapades först inom strängteorin med importerades snart till standardmodellen.
Att ordning plötsligt uppstår ur kaos är ett exempel på ett "symmetribrott".
På wikipedia finns ett resonemang om varför symmetrins matematik är så viktig för kvantfysik; Ju enklare objekt är desto bokstavligare blir en matematisk modelering av dem. Om kvantfysikens små objekt tycks vara lika enkla som matematiska abstraktioner. Så kvantfysik påminner mer om ren matematik än om klassisk fysik. (Åtminstone ibland, antar jag att man ska tolka resonemanget.)
Just för att symmetri är av en så fundamental betydelse inom fysiken så är det iögonenfallande när man hittar asymmetrier. Som hos den svaga växelverkanskraften.
Från 1899 forskade Ernest Rutherford på olika sorters strålning. Han urskiljde alfa, beta och gammastrålar. 1909 utfördes Geiger-Marsden-experimentet, där man bestrålade guldfolie med alfastrålar (vilket senare visade sej vara identiska med heliumkärnor). Man bevisade i experiment 1911 att atomer hade kärnor och en del tomrum, vilket fick Rutherford att skapa sin atommodell 1913. 1919 lyckades han även påvisa protonen. 1920 förutsa han neutronen. När den påvisades 1932 så var atomens tre beståndsdelar kända.
Man nådde en experimentell gräns. Man behövde starkare grejjer. Gustav Ising fick en idé till en linjär partikelaccelerator 1924. Rolf Wideröe vidareutvecklade idén 1927. Han skapade resonansacceleratorn 1928. Hans arbete studerades av Ernest Lawrence i USA som vidareutvecklade conceptet till cycklotronen 1929. Max Steenbeck formulerade idén med cycklotroner medan han var student i Kiel 1922-27. Han sökte patent för Betatron 1934. Betatron accelererar betastrålar, som visar sej vara identiska med elektroner.
1931 byggdes en 23 cm stor cycklotron vid universitetet i Califonien som bevisade att konceptet fungerade.
Vad ska man med en partikelaccelerator till? Man kan studera subatomära partiklar under höga energier. Ju högre energier och ju större acceleratorer, desto mindre partiklar.
Donald Kerst utvecklade Betatron under 1940-talet vid universitetet i Iilinois. Cycklotron var den första sortens accelerator, följd av synchrotronen. De första som byggdes var alla cirkulära. Synchrotronen skapades 1945 av Ed MacMillan.
1952 utvecklade Ernest Courant m.fl ett sätt att fokusera, som bidrog till de storskaliga acceleratorerna, som idag är sinnebilden för "big science". 1954 beslutades att CERN skulle byggas. 1959 startades deras första accelerator, en proton-synchrotron. Den första partikelkollideraren byggdes 1961. Under 60-talet följde snabbt en explosion av nya partikellacceleratoranläggningar runt om hela världen.
Att de kända partiklarna skulle vara uppbyggda av kvarkar förutsades 1964. 1969 upptäckte "partons" när en protonstråle frontalkolliderade med en elektronstråle. Dessa "partons" har sedan identifierats som olika typer av kvarkar.
Det teoretiska resultatet av alla dessa anläggningar var "Standardmodellen" som var någorlunda utarbetat runt 1971. Forskarsamfundet accepterade kvarkmodellen i mitten av 70-talet i något som kallas "novemberrevolutionen".
Tack vare partikelacceleratorerna kunde man upptäcka och kategorisera subatomära partiklar som ofta hade förutsagts av symmetriprinciper.
Ett problem har länge varit att gravitationen har varit svår att införliva i standardmodellen och att man inte har hittat några gravitoner eller higgspartiklar. Gravitoner är i teorin praktiskt taget omöjliga att påvisa.
I slutet av 2011 uppgav CERN att man kanske hade hittat higgs. Nu låter det inte riktigt så längre. Ett mer slutgiltigt besked väntas mot slutet av 2012. Kanske.
I teorin så kan kvantmekaniken och relativitetsteorin förenas i strängteori och m-teori, men dessa kan idag inte bevisas experimentellt. I teorin så skulle det behövas en accelerator lika stor som det kända universum för att man direkt skulle kunna påvisa strängarna i strängteorin.
Idag finns det över 30000 acceleratorer runt om i världen. De används till mycket annat än forskning. De används t.ex vid sjukhus och det finns idéer om att "små" acceleratorer kunde användas för att driva små thoriumreaktorer i mindre skala än dagens kärnanläggningar.
"Besides, these analogies also give an interresting angle on "free will". It demands that not even you knows what youre thinking."
1.
Vanliga datorer är fundamentalt seriella i sitt problemlösande. De kan bara lösa ett problem åt gången och det måste vara ett lätt ett. Dock är de rätt snabba vilket ger illusionen av att de löser flera komplicerade problem samtidigt. Man har försökt att göra datorer mindre seriella genom att få flera processorer att samarbeta parallellt, parallel computing. Vissa framsteg har gjorts men det är svårt eftersom vanliga datorer är i grunden seriella.
Däremot så är kvantdatorer i grunden parallella. Och "i grunden" betyder här på en rent fysisk nivå. De allra minsta beståndsdelarna i en quantum computer kan arbeta på flera problem samtidigt. Detta innebär att kvantdatorer i teorin kan bli oerhört mycket snabbare än dagens allra snabbaste datorer. Detta är dock egentligen hela skillnaden; att de är snabbare. De kan inte lösa några problem som dagens datorer inte skulle kunna lösa i teorin, om de fick tillräckligt lång tid på sej.
Kvantdatorer kan dock bara utföra denna magi om man inte tittar på dom när dom gör det. Ett av de stora problemen är att undvika quantum decoherence. De minsta beståndsdelarna, qubits, får inte interagera med omgivningen förrän uträkningen är klar. Den kvantmekaniska superpositionen kan inte uppehållas särskilt länge, men uträkningen tar inte heller så lång tid.
2.
AI handlar om att upprepa naturens bedrift att skapa mänsklig intelligens. För det mesta så antas detta inte nödvändigtvis innebära något artificiellt medvetande, men åsikterna går isär. I första hand så handlar det om att skapa självreglerande informationssystem på åtminstone mänsklig nivå. Forskarna utforskar flera parallella angreppsmetoder, men det enda som verkar helt säkert är att det kommer att behövas mycket snabba datorer.
3.
Man kan notera att en mänsklig hjärna utför mycket parallel computing. De enskilda synapserna är egentligen inte så speciellt snabba, men det pågår väldigt mycket samtidigt. I likhet med kvantdatorer så kommer hjärnan bara fram till rätt svar med en viss sannolikhet. Hjärnan tycks ofta fungera enligt probabilistic computing. Kvantdatorer använder tydligen enbart probabilistiska algoritmer.
Människors kunskapande sker oftast i sociala nätverk. Kollektivet fungerar som en utvidgad hjärna. Det är möjligt att homo sapiens sapiens konkurrerade ut neandertalarna för att vi var mer sociala. I extremfall så kan dock vissa människor få svårt att bilda sej en egen uppfattning utan andra människor.
4.
Under optimala förutsättningar så tycks kollektiv kunna vara intelligentare än någon individ. (Se historien längst ner här.) Detta fenomen har kallats wisdom of the crowds. Det är inte samma sak som collective intelligence.
Wisdom of the crowds kräver diversity of opinion, independence, decentralisation och aggregation. Värt att notera är att en metod för att skapa dessa förutsättningar starkt liknar en "demokratisk" metod.
Omvänt kan man säga att en kärnpunkt inom demokrati skulle kunna vara att destilera fram och ta till vara på the wisdom of the crowd. Detta är inte något av de vanliga argumenten för demokrati. Vanligtvis så brukar väl demokrati sägas vara ett sätt att avväpna konflikter i samhället, att balansera särintressen och att legitimera den rådande ordningen.
Möjligen kan man säga att en avsikt med en demokratisk process kan vara att förvandla en population till en artificiell intelligens eller en probabilistisk dator.
Dock misslyckas man med att uppnå wisdom of the crowds under följande förutsättningar; homogeneity, centralization, division, imitation och emotionality,
varav samtliga är mycket vanliga i samtida demokratiska processer.
För att närma sej idealet med wisdom of the crowds, kanske samma sak som Rousseau kallade "folkviljan", så måste man t.ex sluta med opinionsundersökningar, tvinga debattörer att vara ärliga och sakliga, uppmuntra parallella informationskällor, hålla hårt på valhemligheten och utvidga rötsträtten (eftersom den enskilde röstarens kompetens inte är så central) m.m.
Om man ser på en röstande befolkning som en probabilistisk, parallellprocessande dator, analogt med en kvantdator eller en hjärna, så är resultatet bl.a beroende av goda indata och att processen inte störs. Lustigt nog så kan man inte fråga de röstande vad de tänker utan att störa processen, analogt med både en hjärna och en kvantdator.
Nån som har lust att crowdsourca dom här uppslagen? Dvs stjäla idéerna?
Jag har gått igenom lite av kvantfysikens historia och tittat på några av de tolkningar som har gjorts. Detta är tolkningar inom kvantmekanik och även om fälten är överlappande så är det inte identiskt med kvantfältteorierna eller quantum gravity-teorierna t.ex.
De tre stora tolkningsgrupperna är köpenhamnstolkningen, relative-state-tolkningen och kausala tolkningen. Man skulle kunna kalla dessa för Bohrgruppen, Bohmgruppen och Everettgruppen.
Jag kallar dessa för tolkningsgrupper eftersom dessa tolkningar i sin tur kan tolkas på olika vis och man kan förvänta sej att olika experter beskriver t.ex köpenhamnstolkningen på olika vis.
Det finns fler tolkningar men de är inte lika populära. Många är svåra att hitta bra info om.
Dessa kallas för tolkningar eftersom de alla ska utgå från samma "formalism" ,dvs samma matematik och konkreta sätt att utföra kvantfysik på. Det är dock inte riktigt sant. Flera tolkningar ändrar på formalismen, och borde kanske då istället kallas för alternativa teorier, eller nått. Framförallt så är det de mer realistiska tolkningarna som ändrar på formalismen. Kanske finns det något i själva den ortodoxa formalismen som gör observatören viktig.
I den mån som tolkningarna bara är tolkningar av samma empiri och matematik så är det som har skapat de olika tolkningarna olika filosofier, men antagligen även olika psykologiska motiv och olika sociologiska sammanhang.
"But why then had Born not told me of this ‘pilot wave’? If only to point out what was wrong with it? Why did von Neumann not consider it? More extraordinarily, why did people go on producing ‘‘impossibility’’ proofs, after 1952, and as recently as 1978? ... Why is the pilot wave picture ignored in text books? Should it not be taught, not as the only way, but as an antidote to the prevailing complacency? To show us that vagueness, subjectivity, and indeterminism, are not forced on us by experimental facts, but by deliberate theoretical choice?"
-J.S. Bell
Bohm gjorde kvantmekaniken decoherent så att många nya tolkningar dök upp och efter Everett så har även hans relative state/universal wavefunction blivit decoherent och lett till ett flertal tolkningar.
En slags kategorisering vore att säga att everettgruppen av tolkningar säger att observatören är viktig och försöker att ha med observatören inom teorin. Bohmgruppen, dvs de realistiska tolkningarna, säger att observatören är oviktig och har inte med den inom teorin, medan Bohrgruppen säger att observatören är viktig men har inte med den inom teorin.
Realistiska tolkningar är de Broglie-Bohm, objektiv-kollaps-tolkningar, time symmetric theories, transactional intepretation, stochastic interpretation, branching spacetime och antagligen quantum information interpretation.
Bland dessa så tycks de Broglie-Bohm, stochastic interpretation och kanske även branching spacetime, ha fler beröringspunkter än de andra.
Bland de realistiska tolkningarna så är de Broglie-Bohm i en klass för sej och de andra är tydligt mindre populära, utarbetade osv.
En annan grupp än de realistiska teorierna är Everett och posteverett tolkningarna; MWI, many histories, many minds och RQM. Visst MWI kan sägas vara en sorts realistisk tolkning men för tolkningsgruppen som helhet så spelar observatören en roll.
Bland Everett och posteverett-tolkningarna så verkar RQM vara den senaste och mest intressanta, även om den inte ännu är lika populär som MWI.
Existential intepretation, modal interpretation och consistent histories verkar vara mellan Köpenhamnstolkningen och MWI.
Many minds verkar vara lite av en hybrid av MWI och von Neumann tolkningen och consistent histories verkade vid något tillfälle vara en hybrid av MWI och Köpenhamnstolkningen.
Bohrgruppen: Ensembletolkningen, Köpenhamnstolkningen, modal interpretations och consistent histories, kan kanske kallas parainstrumentella tolkningar.
Bohr- och Everettgrupperna verkar korspolineras med varandra oftare än med Bohmgruppen.
Quantum logic verkar vara i en kategori för sej men har vidareutvecklats iom Quantum Topos.
Det är lite lustigt att jämföra de Broglie-Bohm och RQM med varandra för i den jämförande tabellen som jag länkat tidigare så är de varandras motsatser i praktiskt taget varje avseende. Ett naturligt komplementärt par?
Bells teorem från 1964 säger att antingen så får vi acceptera quantum nonlocality eller så får vi acceptera förlusten av kontrafakticiteten. Bohm accepterar nonlocality och Everett accepterar förlusten av kontrafakticiteten.
Det fanns även en Bohminspirerad relationell tolkning:
"An independent relational approach to quantum mechanics was developed in analogy with David Bohm's elucidation of special relativity,1965, in which a detection event is regarded as establishing a relationship between the quantized field and the detector. The inherent ambiguity associated with applying Heisenberg's uncertainty principle is subsequently avoided."
Kanske att Bohm- och Everettgrupen skulle kunna korspollineras iallafall.
Whitehead vävde inte in kvantmekanik i sin filosofi på samma sätt som han gjorde med relativitetsteorin. När han skrev Process and reality 1927-29 så blev köpenhamnstolkningen precis känd (och ingen annan tolkning). Whiteheads teori förefaller vara rätt så lokalrealistisk och verkar ha kontrafakticitet, vilket Bells teorem förbjuder att man har samtidigt. Jag tror dock att det skulle vara rätt lätt att introducera nonlocality i hans organic philosophy.
Annars så säger ju Shaviro att skillnaderna mellan Whitehead och OOO är blott estetiska (vilket skulle kunna vara viktigt för en whiteheadian) och OOO har beröringspunkter med RQM (enligt mej). Det finns också en tydligt relationistisk sida av Whitehead.
Avslutningsvis så vill jag jämföra tre kvantmekaniska tolkningar med tre operativsystem (inkl. Linux)
Även om det är ganska få som stödjer vissa av de här tolkningarna så finns det dessutom minority intepretations of quantum mechanics, och säkert även tolkningar som inte ens finns med där.
*
Popper var kritisk till Köpenhamnstolkningen och föreslog ett alternativ som var ännu mer klassiskt än Bohm. Popper föreslår bara partiklar som verkliga och vågfunktionen som bara epistemologi, dvs som klassisk sannolikhet. Det verkar finnas en uppfattning om att hans alternativ är falsifierat.
*
Inom fysik är symmetrilagar viktiga och även tidssymmetri spelar en stor roll. Till vardags så verkar ju tiden vara asymmetrisk men gör man en tidssymmetrisk tolkning av kvantmekaniken så verkar en del underligheter, som t.ex. entanglement, försvinna: därför att helt plötsligt så finns det även baklängeskausalitet, så att verkan kan komma före orsaken. Arahonov som tidigare hade sammarbetat med Bohm föreslog en tidssymmetrisk tolkning 1964 och även J.G Cramers Transactional Interpretation från 1986 är en sorts tidssymmetrisk tolkning, som är influerad av Wheeler-Feynmans tidssymmetriska tolkning av elektrodynamiken.
*
Dirac-ekvationen som först skapades 1928 var framgångsrik på många sätt men förutspådde att elektroner borde förfalla till ett negativt energitillstånd. För att förklara att så inte sker så föreslog Dirac ett hav, Dirac sea, av negativa elektroner vilket förhindrade fler elektroner att bli negativa. 1955 föreslog Wheeler idén med kvantskum, quantum foam, som innebär att på den minsta skalan, runt plancklängden, så bubblar det av partiklar som uppkommer ur tomma intet och försvinner lika fort som de kom.
Dessa virtuella partiklar bryter inga lagar om de är tillräckligt tillfälliga. Dessa kvantfluktuationer ger vakuum en zero-point energy som kan ha mätbara effekter i stil med casimir-effekten. 1966 lyckades Edward Nelson härleda och tolka schrödingerekvationen utifrån kaotisk rörelse. Tanken med den stokastiska tolkningen är att kvantlagarna uppstår ur slumpmässiga rörelser snarare än tvärtom. Nelson påvisade att liknande tankar hade funnits tidigare; 1933, 1952 och 1953. Bohm-Vigier tolkningen har kallats causal-stochastic interpretation.
*
1969 publicerade Konrad Zuse boken Calculating space. I den framfördes för första gången tanken att universum var en sorts digital dator. Tanken kallas nuförtiden för digital fysik. Flera andra har fått liknande idéer. 1971 publicerade Carl Friedrich Freiherr von Weizsäcker boken Einheit der Natur som sägs innehålla en form av digital fysik. Senare har Edward Fredkin, Stephen Wolfram, Juergen Schmidhuber och Gerard 't Hooft (nobelpristet -99 i fysik) framfört liknande idéer. J.A. Wheeler har framfört ett förslag om "it from bit" och Max Tegmarks variant av MWI verkar vara digital fysik. Seth Lloyd, David Deutsch, och Paola Zizzi har arbetat på quantum information theories.
Whitehead tycks ha en del beröringspunkter med digital physics. Hans teori har i den minsta skalan likheter med cellular automata.
*
Many minds interpretation var 1970 den första posteverettska omformuleringen av MWI. Dieter Zeh föreslog att inte hela världen mångfaldigades utan att varje observatör fick tillgång till världen på ett unikt sätt och fick sin egen variant av världen. Many minds verkar förutsätta en kropp-själ-dualism som gör den impopulär.
*
1972 modal interpretations använder sej av modal logik. Säger ung. att ett exakt mätresultat inte nödvändigtvis behöver vara en exakt beskrivning av det undersökta. Van Fraassen verkar ha velat uppdatera köpenhamnstolkningen. Efter van Fraassen har flera andra varianter av Modal interpretations kommit. Dessa verkar röra sej på en skala från instrumentalism till relative-state.
*
Consistent histories är ett försök att förbättra köpenhamnstolkningen. Man försöker att formulera tolkningen på ett konsistent sätt och förklarar vissa frågor som meningslösa. Att tala om vågfunktionens kollaps är meningslöst eftersom vågfunktionen bara är en teoretisk konstruktion. Man vill visa att kvantmekaniken i högre grad är förenlig med klassiskt resonerande än vad som brukar antas. Man använder sig av decoherence och tillbakavisar frågor om MWI.
*
Objective collapse theories hävdar att vågfunktionen existerar objektivt och kollapsar objektivt, dvs utan att observatören spelar någon roll. Främst två teorier är kända - Penrose och Ghirardi-Rimini-Weber.
GRW antar att vågfunktioner kollapsar spontant, statistiskt sett vart 10^8 år. När man utför en mätning så blir dock vågfunktionen entangled med mätapparaturen där minst så många partiklar finns och sannolikheten närmar sej då ett att den undersökta vågfunktionen också ska kollapsa.
Penrose antar att eftersom vågfunktioner är verkliga så kan (små) objekt existera på mer än ett ställe samtidigt. Detta tar dock extra energi och störningar från omgivningen, speciellt rumtiden som böjer sej för att forma ett gravitationsfält runt objektet, får vågfunktionen att kollapsa ner på en lägre energinivå.
*
Transactional interpretation har jag redan nämnt tidigare i denna postning och relational interpretation, RQM, fick en egen postning i våras.
*
Branching SpaceTime tycks handla främst om tid. Man antar att det finns en mångfald av framtider som är på något sätt verkliga fast inte aktuella och nuet innebär att bara en av dessa framtider blir aktuell och de andra går förlorade. Så vi har många framtider och bara ett förflutet. En analys som ligger ganska nära vardagliga tänkesätt. På sätt och vis är detta en slags motsats till MWI där tiden är ett träd som bara förgrenar sej konstant och får fler grenar. I BST så blir grenarna ständigt färre.
En konsekvens av detta är att världen var mindre deterministisk tidigare och blir mer deterministisk med tiden. Man kan kanske tänka sej något slags ursprungligt kaos och BST har även likheter med den stokastiska tolkningen som säger att kvantlagarna uppstår spontant ur ett underliggande kaos. Även CS Peirce hade ju en tanke om att världen gick från mindre till mer determinism. Tydligen finns det även någon likhet med hidden variables-teori.
*
Jag hittar ingen som mer formellt förespråkar Schrödingers alternativ att "all is waves" men Wheeler skapade en geometrodynamics som kan ha beröringspunkter. Wheeler gav visserligen upp men killarna bakom quantum topos verkar ha tagit tag i geometrodynamics igen. Det finns även en koppling mellan bohmmekanik och quantum hydrodynamics.
Quantum field theory verkar tolka partiklar som sekundära till fält.
Men kvantfältsteori sammanfaller inte helt med kvantmekanik.
I nästa postning så tänker jag diskutera de här senaste bloggposterna om kvantmekanikens filosofi.
"... a picture, incomplete yet not false, of the universe as Ts'ui Pen conceived it to be. Differing from Newton and Schopenhauer, ... [he] did not think of time as absolute and uniform. He believed in an infinite series of times, in a dizzily growing, ever spreading network of diverging, converging and parallel times. This web of time -- the strands of which approach one another, bifurcate, intersect or ignore each other through the centuries -- embraces every possibility. We do not exist in most of them. In some you exist and not I, while in others I do, and you do not, and in yet others both of us exist. In this one, in which chance has favored me, you have come to my gate. In another, you, crossing the garden, have found me dead. In yet another, I say these very same words, but am an error, a phantom."
Jorge Luis Borges, The Garden of Forking Paths
I still recall vividly the shock I experienced on first encountering this multiworld concept. The idea of 10^100 slightly imperfect copies of oneself all constantly splitting into further copies, which ultimately become unrecognizable, is not easy to reconcile with common sense. Here is schizophrenia with a vengeance
-deWitt
Framtiden är fullständigt känd. Vi vet exakt vad som kommer att hända. Nämligen allt som kan hända. Olika kopior av dej kommer att uppleva alla möjliga framtider och du kommer att vara alla samtidigt, men de kommer aldrig att känna till varandra. För var och en av dina framtida jag så kommer bara en bestämd begränsad framtid att verka hända. Om du vill veta om just du kommer att vinna en miljon eller möta ditt livs kärlek så är svaret ja. Och nej. Att fråga vilket alternativ du kommer att få uppleva i framtiden får inget användbart svar. Many Worlds Intepretation betraktar inte "dej" som nånting som bara finns i en värld samtidigt.
Inom ett dygn så kommer du och jag att ha en sexuell relation i ett stort antal framtida världar. Fysikens lagar tycks inte förbjuda det och alltså så kommer det att hända. I andra världar så kommer jag istället att döda dej inom 24 timmar. MWI kräver att dessa saker kommer att hända med nödvändighet.
MWI är den klart förhärskande tolkningen av Everetts kvanttolkning, men samtidigt så sägs det fåtal texter som finns av honom själv inte vara helt entydiga och kan inbjuda till lite olika tolkningar. Såväl many minds som many histories, coherent histories och relative quantum intepretation m.fl. kan tolkas som försök att förbättra Everetts ursprungliga MWI. Mer om dessa posteverettska tolkningar i en annan postning.
MWI är en av flera mulitversumteorier i samtida (spekulativ) vetenskap. Själva termen "multiversum" myntades ursprungligen av William James som dock själv menade med termen att det gick att ha mycket olika tolkningar av samma universum.
Hugh Everett III skrev sin dissertation handledd av John A Wheeler. Ett första utkast var klart 1956 men Wheeler reviderade det mycket och ett andra utkast var färdigt 1957. Wheeler åkte till Köpenhamn -56 för att få utkastet godkänt av Bohr som Wheeler trodde skulle ha svårt att acceptera det. Everetts alternativ kallades först "relative state" och sen "universal wavefunction". Everetts förslag godkändes inte av Bohr m.fl och idén om en universell vågfunktion kallades för "teologi".
Dissertationen blev godkänd vid Princeton i USA 1957 men Wheeler tyckte att Everett skulle åka till Danmark personligen och prata med Bohr vilket han gjorde 1959, med familj, men Bohr lät inte övertyga sej. Everett övergav då kvantmekanik och ägnade sej åt sitt jobb med spelteori och datorer vid Pentagon. 1973 startade han istället ett privat datorkonsultföretag. Tydligen var han framstående även inom programmering och matematik.
1970 så uppmärksammade deWitt Everetts tolkning igen och döpte om den till Many Worlds Intepretation. deWitt plockade fram MWI ur glömskan och populariteten har bara ökat sen dess. Även om Everett höll något enstaka föredrag så fortsatte han att jobba med sina privata företag.
Varken Wheeler eller deWitt trodde själva på MWI utan tyckte bara att det var bra att olika alternativ uppmärksammades och att Everett verkade vara en begåvad kille. Dock skapade de faktiskt tillsammans Wheeler-deWitt-ekvationen som Wheeler kallade the "wave function of the Universe."
I von Neumanns beskrivning så var det en tydlig uppdelning i mikrovärlden som följde kvantlagar och makrovärlden som följde vardagliga lagar. I mikrovärlden så fanns det vågfunktioner som beskrevs av vågmekaniken och som kollapsade när en observatör i makrovärlden gjorde en mätning. Men observatören i makrovärlden befann sej utanför teorin. Det fanns ingen fysisk teori om obsevatören. Men den verkade vara helt omistlig för fysiska system. Men vem observerade universum i sin helhet undrade Everett. Om ingen gjorde det, hade då inte universums vågfunktion kollapsat? Everett ville skapa en tolkning med bara kvantmekaniska lagar där observatören inkluderades i tolkningen och alltså underkastades samma lagar.
En annan sak som han ville göra var att ta bort kollapsen av vågfunktionen. Det fanns aldrig någon teori kring själva kollapsen, ja förutom quantum decoherence förstås.
Quantum decoherence innebär att delar av informationen i vågfunktionen börjar att läcka ut i omgivningen vilket leder till att den övriga informationen blir otillgänglig när processen är fullbordad.
Bohm skapade quantum decoherence. Hans vågfunktioner kollapsade egentligen aldrig fastän de verkade göra det. Detta berodde på vågfunktionens interaktion med omgivningen. Everett läste Bohm.
Decoherence betyder ung. "bli osammanhängande" och handlar om att vågfunktionen löses upp i kontakt med omgivningen, men inte plötsligt som en vågkollaps utan mer långsamt. för Bohm så handlade det om en skenbar kollaps när partikelns läge blev känd trots att vågfunktionen fortfarande styde dess bana.
Everett räknade också med en skenbar kollaps trots att vågfunktionen fortfarande var intakt. Han såg dock inte vågfunktionen som en "pilot wave" utan tolkade den enligt Borns statistiska tolkning. Everett kombinerade alltså ensembletolkningen med decoherence. Anhängare av MWI gillar Everetts minimalistiska teori men Borns statistiska tolkning är något som måste antas separat för även om försök har gjorts att härleda den ur den övriga teorin så råder ingen bred enighet om att man skulle ha lyckats.
Everett ansåg att hans tolkning kunde kallas en metateori till köpenhamnstolkningen. Köpenhamnstolkningen beskrev vad en observatör föreföll uppleva medan MWI beskrev vad som verkligen hände. Kritiker har hävdat att MWI och köpenhamnstolkningen inte alls förutspår samma experimentella resultat eftersom MWI inte förutspår något specifikt resultat alls för något experiment.
Annars så kan både Bohms kausala tolkning och MWI kallas metateorier till köpenhamnstolkningen: om man tolkar den som strikt instrumentalistisk så att den bara uttalar sej om instrumentens mätresultat och egentligen aldrig om verkligheten. Varje teori som utalar sej om både instrumentresultaten och verkligheten bortom experimenten blir då en metateori till köpenhamnstolkningen.
MWI sägs vara bland de populäraste tolkningarna bland kvantfysiker, men vid närmare utfrågan så visar det sej att de inte nödvändigtvis gör en ontologisk tolkning av MWI. T.ex Steve Hawking gillar MWI, men han förutsätter att man gör en positivistisk tolkning av den.
(Spontant så förstår jag inte riktigt vad en positivistisk tolkning av en ontologisk tolkning är för något. Att Everett själv menade tolkningen ontologiskt visas av att hans son hävdar att Everett var fast övertygad om quantum immortality.)
Vad de egentligen gillar kan vara att man bara gör en så enkel tolkning som möjligt av en avgränsad välkänd formalism (lite matte och liknande). Man tolkar formalismen bokstavligt utan att tillföra något; vågkollaps, några hidden variables e.dyl. "Bokstavligt" så verkar vågfunktionen beskriva en mångfald av utfall av vilka bara ett verkar inträffa. Forskarna kanske gillar MWI för att den verkar göra saker och ting enkla. Svåra att acceptera men enkla att beskriva.
MWI ska bortförklara såna saker som kvantfysisk nonlocality, observatörseffekten och the finetuned universe och anhängare anser att detta talar för tolkningen. Men hur bortförklaras t.ex finetuned universe? Genom att hävda att det finns ett mycket stort antal universum i alla tänkbara tillstånd av ordning och kaos. Nånting som ser ut som informativ ordning hävdar man alltså att det egentligen är slumpmässigt eftersom det finns en uppvägande oordning någonannanstans som vi inte kan registrera.
Kanske kan man säga att MWI helt enkelt inte är en teori om vår värld och därför inte är fysik eller vetenskap i vanlig mening. Om man utförde Schrödingers kattexperiment så skulle resultatet varje gång bli att man hade en levande eller en död katt. MWI hävdar att katten i själva verket är både levande och död, trots att detta aldrig kan iaktas. Jag tycker att det är ganska intressant hur MWI lyckas förena absolut determinism med faktisk slumpmässighet.
Annars är väl några vanliga invändningar att ett oräknerligt antal universa strider mot Occhams rakkniv och att ett ständigt nyskapande av universa bryter mot lagen om energins konstans. Gensvaren blir att Occham ska tolkas som att teorin ska vara så minimal som möjligt och inte det som den beskriver, respektive att lagen om energins kostans bara gäller inom universa.
Det går även att skriva formalismen på flera sätt så att splittringen mellan olika universa verkar inträffa på olika sätt, men om splittringen är en objektiv händelse så borde den bara inträffa på ett sätt.
Om information enligt relativitetsteorin inte kan spridas fortare än ljuset, hur kan då alla tillstånd i ett helt universum kopieras samtidigt? Detta medger anhängarna att det inte tycks kunna ske utan hävdar istället att splittringen i olika universa sprids med ljusets hastighet. Detta utesluter dock inte att olika splittringar kan komma i konflikt med varandra.
I min förra postning om MWI så hävdade jag att det inte finns något sätt att empiriskt testa MWI och det är på sätt och vis sant, men vissa hävdar att pga att Everett utgick från quantum decoherence så kan det kanske i framtiden utvecklas en teknik där information kan utbytas mellan olika universa via en "svag mätning" via superpositionen innan den kollapsar.
Ett annat förslag till bevisning är att man helt enkelt skjuter sej i huvudet. I de flesta världar så dör man men det finns alltid ett litet antal världar där pistolen klickar oavsett hur många gången som man försöker. När pistolen har klickat hundra eller tusen gånger så kan man vara förvissad om att MWI är sann, hävdas det. Samtidigt så har man faktiskt dött i väldigt många andra världar. Detta måste vara ett av de dummaste experiment någonsin uttänkt i kvasivetenskapen historia.
Skämt åsido så tycks en av MWIs största framgångar vara att nästan komma fram till en vanlig sannolikhetsteori och som en följd av detta att människor antagligen bör bete sej som vanligt och inte t.ex skjuta sej i huvudet.
Jag gillar faktiskt Everetts tidiga "relative state" formulering. "Relative state" innebär att t.ex ett subjekt och ett objekt inte har något väldefinierat tillstånd förrän de har interagerat och då har varsitt tillstånd men bara i relation till varandra. Detta har lett till intressanta posteverettska tolkningar. Däremot så påminner mej hyllningarna av MWI och Everett som person mej lite om en kult.
Även om det finns gott om teorier om dolda verkligheter och alternativa världar i idéhistorien så brukar dessa världar vara ganska olika varandra och jag känner inte till någon teori där dessa alternativa världar är nästintill identiska såsom i MWI. Dock finns det i mahayanabuddhism en tanke om ett näst intill oändligt antal parallella världar och jag antar att en del av dessa kommer att vara rätt lika varandra.
Swedenborg tycks ha haft någon form av multiversum-teori på 1700-talet och P D Ouspensky skrev 1934:
"Our mind follows the development of possibilities always in one direction only. But in fact every moment contains a very large number of possibilities. And all of them are actualised, only we do not see it and do not know it. We always see only one of the actualisations, and in this lie the poverty and limitation of the human mind. But if we try to imagine the actualisation of all the possibilities of the present moment, then of the next moment, and so on, we shall feel the world growing infinitely, incessantly multiplying by itself and becoming immeasurably rich and utterly unlike the flat and limited world we have pictured to ourselves up to this moment."
Everett var alkoholist, rökte tre paket om dagen och var allt annat än en renlevnadsman och dog vid 51 års ålder. Även om han var övertygad ateist så trodde han på quantum immortality, att hans liv alltid skulle fortsätta i något parallellt universa. Han arbetade som forskare inom kärnvapenstrategier vid amerikanska försvaret. Jag antar att det är lättare att föreställa sej scenarion där stora delar av världens befolkning utrotas om man tror att alla dessa människor samtidigt lever vidare i parallella världar. Hans mor var intagen för psykvård. Han dotter var manodepressiv.
Everetts dotter begick självmord i mitten av 90-talet. I sitt självmordsbrev så ville hon att hennes kropp skulle brännas och askan slängas med soporna, precis som hennes fars kropp enligt hans sista vilja, så att hon skulle hamna i samma parallella universa som honom.
Dave always arrives at the right conclusions, but his mathematics is terrible. I take it home and find all sorts of errors and then have to spend the night trying to develop the correct proof. But in the end, the result is always exactly the same as the one Dave saw directly.
Professor Basil Hiley, a colleague at Birkbeck College, University of London.
David Bohm hade en lång och produktiv karriär. Jag tänker här i första hand fokusera mej på den hidden variables-teori som han utvecklade under 1950-talet, och skriva mindre om hans senare utveckling.
David Bohm, som som var vän med Einstein, var inte nöjd med den kvantfysiska ortodoxin i början av 50-talet. Hans alternativ gick ut på att både partikeln och dess vågfunktion existerade hela tiden, samtidigt. Varje partikel existerar kontinuerligt och har en sorts våg som följer med den kontinuerligt. Partikeln har i verkligheten ett exakt läge, en exakt hastighet och en exakt riktning i varje ögonblick. Bohm var i sin ungdom vänsterradikal och hans avsikter inom kvantmekaniken var först att återupprätta en mer common sense-artad materialism. Han använde sej av två ekvationer; en för partikeln och en för "kvantpotentialen".
Bohm skapade tydligen denna teori sjävständigt, först omedveten om att de Broglie hade varit inne på liknande tankegångar redan på 20-talet, vilket Einstein och Wolfgang Pauli upplyste honom om. de Broglie hade skapat Pilot wave teorin som gick ut på att vågen som följde med varje partikel påverkade partikelns bana och styrde den, därav namnet "pilotvåg". De Broglies teori var dock ofullständig och hade bara en ekvation för vågen. de Broglie som hade övergett sin teori för länge sen skulle komma att bli en anhängare av Bohm teori.
För Köpenhamnstolkningen så råder våg/partikel-dualitet. Det elementära kan uppvisa antingen våg- eller partikelegenskaper, men aldrig exakt samtidigt. Vågfunktionen tolkas som sannolikheten att hitta en partikel.
Tänk dej t.ex en hundvalp som springer bort. Ju längre tiden går desto längre bort kan den vara från hemmet. Dess vågfunktion sprids som ringar på vattnet. Dock hävdar Köpenhamnstolkningen att valpen inte finns förrän vi hittar den och att vågfunktionen inte finns heller. Det är bara lite matematik i skallarna på oss.
Jag har vagt kallat Köpenhamnstolkningen för instrumentalistisk och positivistisk, men den säger snarare att det som inte syns inte finns och bör kanske snarare kallas fenomenalistisk. Trädet som faller i skogen när ingen hör låter inte, för det finns inte när ingen observatör observerar det. Ingen verkar lyfta fram Biskop Berkeley som en föregångare till köpenhamnstolkningen, men jag tycker att det verkar vara en minst lika rimlig tolkning som alla andra. Bohm sade sej gilla Spinoza (m.fl.)
Det är lite lustigt att det som anses vara en "dold variabel" alltså är partikeln. Den kallas så eftersom Köpenhamnstolkningen inte räknar med den som en variabel, där används enbart vågfunktionen. Ändå så är det ju partiklarna som bygger upp de objekt som vi ser omkring oss till vardags, det gör inte vågfunktionerna som enbart syns som teoretiska konstruktioner.
Denna bohm-mekanik förklarar alla experimentella observationer lika bra som köpenhamnstolkningen, men är tydligt mindre populär bland fysiker. Alla de olika "tolkningarna" av kvantfysiken som jag går igenom här är lika bra på att förklara experiment. åtminstone så råder det ingen bred enighet bland forskare om att någon särskild tolkning skulle vara bättre, snarare så anser folk att just deras favorittolkning är lite bättre på att förklara observationer än de andra. Något som skiljer bohmmekaniken från köpenhamnstolkningen är att bohmmekaniken är mer realistisk och känns lättare att begripa. Man kan tycka att ett ämne som kvantfysik inte bör krånglas till i onödan.
Så en hidden variables teori är alltså möjlig, för en sådan har existerat åtminstone sedan 1952, och den har inslag som inte är lokal realistiska, såsom det är bevisat att en hidden variables teori måste ha. Däremot så tycks det finnas vanliga föreställningar bland kvantfysiker att sådana teorier egentligen är omöjliga och att det är ett eller annat allvarligt fel på Bohmmekaniken. Men det tycks det inte vara.
Från 1990-talet och frammåt så har de Broglie-Bohm-teori varit den tredje största strömningen inom kvantmekanisk teori, efter köpenhamnstolkningen och mångavärldarteori. Dock dröjde det länge innan den uppmärksammades och uppskattades. Att Bohm tvingades i exil som misstänkt kommunist bidrog säkert, liksom den allmänt spridda övertygelsen bland fysiker att hidden-variables-teorier var omöjliga och att köpenhamnstolkningen hade besegrat alla alternativ.
Han var tvungen att lämna USA under McCarthyeran och bodde först tre år i Brasilien och två år i Israel innan han bosatte sej mer permanent i Storbritannien. I sin ungdom så hade han varit med i en kommunistisk förening och även andra verksamheter som FBI under J. Edgar Hoover räknade som kommunistiska.
I samband med att han skapade bohmmekaniken så skapade Bohm även quantum decoherence som är ett (då) nytt sätt att tolka vågfunktionens kollaps. Vågfunktionen kollapsar ju egentligen inte enl. Bohm som den gör för Köpenhamnstolkningen, men skenbart så tycks den göra det. Quantum decoherence är en metod som har blivit allt populärare med tiden, även för fysiker som inte är anhängare av bohmmekanik. Mångavärldarteorin bygger på quantum decoherence liksom även coherent histories-tolkningen gör. Även en del anhängare av köpenhamnstolkningen har börjat använda sej av quantum decoherence som en rent teknisk metod.
Efter Bohm kom det med tiden allt fler tolkningar av kvantmekaniken. Bohm har även sammarbetat med Aharonov, som skapade den tidssymmertiska kvanttolkningen, och med Vigier, som förespråkade den stokastiska tolkningen av kvantmekaniken. Den stokastiska tolkningen bygger på idéer som går tillbaks till 20-talet. Vigier hade liksom Bohm ett marxistiskt förflutet och sammarbetade dessutom med de Broglie.
"In a letter to Markus Fierz, [Wolfgang] Pauli used his bitter irony, writing that he was not surprised with the alliance between de Broglie and Vigier aiming to restore determinism to physics. He argued that both Catholics and Communists depended on determinism for reassuring their eschatological faiths, the former in the heaven after earthy life, the latter in the heaven still on earth."
“I was much amused by the onslaught on David Bohm, with whom I had a long discussion on this subject in New York, in Sept. 51. Half a dozen of the most eminent scientists have got their knife into him. Great honour for somebody so young;”
-Dennis Gabor
Påpekas kan att Einstein var kritisk till Bohms kausala tolkning och att von Neumann närmast tycktes vara neutral. Själva uttrycket "köpenhamnstolkningen" skapades först i opposition till Bohms kausala tolkning.
1961 publicerade Aharonov och Bohm Aharonov-Bohm-effekten som lätt kunde tolkas ickelokalt, vilket inte var en populär tolkning.
Bohm utforskade de nonlokala implikationerna av sin teori. John S Bell gav ut Bells teorem 1964 som enligt honom själv visade att alla kvantteorier måste vara ickelokala. Andra hävdar att han bara har visat att lokalrealistiska hidden variables-teorier är omöjliga. Bell själv var imponerad av Bohms kausala kvantmekanik, som inte var lokalrealistisk. Han hade i början av 50-talet funderat på att specialisera sej på bohms kausala tolkning. Vad han senare gjorde var att visa att von Neumanns argument mot hidden variables-teorier var felaktigt.
Psykologen Pribram började under 60-talet att undersöka om minnet var holografiskt kodat i hjärnan, dvs inte hade något centra utan fanns lite överallt. Han kontaktade Bohm som hade en teori om en implicit ordning i kosmos, som till skillnad från den explicita ordningen var holografisk till sin natur.
Efter ca 1970 så ändrade Bohms skrivande karaktär och han ängnade sej åt begrepp som implicateorder, holomovement, thought as a system och Bohm dialouges. Medan determinism och kausalitet var viktiga för Bohmmekaniken så var sådana begrepp inte lika centrala för Bohms senare teoretiserande. I sin senare utveckling så var han antagligen påverkad av sin guru Krishnamurti. Bland Bohms filosofiska influenser nämns Hegel, Schopenhauer och Whitehead.
Tillsammans med Basil Hiley så utvecklade Bohm sin teori vidare. De gav ut artiklar från 1970 och frammåt och första gemensamma boken 1975.
"We bring out the fact that the essential new quality implied by the quantum theory is nonlocality; i.e., that a system cannot be analyzed into parts whose basic properties do not depend on the state of the whole system. This is done in terms of the causal interpretation of the quantum theory, proposed by one of us (D.B.) in 2952, involving the introduction of the quantum potential. We show that this approach implies a new universal type of description, in which the standard or canonical form is always supersystem-system-subsystem; and this leads to the radically new notion of unbroken wholeness of the entire universe. Finally, we discuss some of the implications of extending these notions to the relativity domain, and in so doing, we indicate a novel concept of time, in terms of which relativity and quantum theory may eventually be brought together."
Bohm dog 1992 och deras sista gemensamma bok gavs ut 1993. Hiley har efter det arbetat vidare utan Bohm och har bl.a sammarbetat med Paavo Pylkkänen.