Most recent comments
2021 in Books -- a Miscellany
Are, 2 years, 11 months
Moldejazz 2018
Camilla, 5 years, 4 months
Romjulen 2018
Camilla, 5 years, 11 months
Liveblogg nyttårsaften 2017
Tor, 6 years, 11 months
Selvbygger
Camilla, 1 month, 4 weeks
Bekjempelse av skadedyr II
Camilla, 11 months
Kort hår
Tor, 3 years, 11 months
Ravelry
Camilla, 3 years, 6 months
Melody Gardot
Camilla, 5 years, 5 months
Den årlige påske-kommentaren
Tor, 5 years, 8 months
50 book challenge
Camilla, 11 months, 3 weeks
Ten years ago
Nissebading
Tor
Controls
Register
Archive
+ 2004
+ 2005
+ 2006
+ 2007
+ 2008
+ 2009
+ 2010
+ 2011
+ 2012
+ 2013
+ 2014
+ 2015
+ 2016
+ 2017
+ 2018
+ 2019
+ 2020
+ 2021
+ 2022
+ 2023
+ 2024

Singel eller dobbel?

Jeg skrev ved en tidligere anledning om hvordan det er fort gjort å brenne seg hvis man ikke tenker over konsekvensene av at datamaskiner lagrer tall med endelig presisjon. I dag tenkte jeg å utdype litt, med et noe mer realistisk eksempel.

Av ulike grunner prøver jeg i simuleringskoden jeg har skrevet i løpet av doktorgraden å regne ut en litt småsuspekt rekkeutvikling. Grovt sagt regner jeg ut en eksponentialfunksjon ved hjelp av den kjente rekken

Denne rekken, som er en av måtene man kan definere eksponentialfunksjonen, er alltid konvergent. Den vil altså alltid gi riktig resultat, uansett hva argumentet x er. Problemet, som jeg ikke tenkte helt over til å begynne med, er at denne rekkeutviklingen funker spekakulært dårlig hvis man prøver å gjøre den for moderat store negative tall. Jeg fikk derfor en litt utrivelig overraskelse her for en tid tilbake, da jeg prøvde å simulere et system som hadde litt større verdier for forskjellige parametere enn de jeg hadde sett på tidligere, og resultatet bare så ut som tilfeldige enorme tall.

For å ta et eksempel kan vi kikke på hva som skjer hvis vi prøver å regne ut e-20. Jeg har gjort rekkeutviklingen, og laget en figur som viser de 100 første leddene:

Det er vanskelig å se nøyaktig hva de ulike verdiene er, men essensen jeg prøver å få frem med dette plottet er at leddene i serien er vekselvis positive og negative, og varierer veldig mye i størrelsesorden. Serien begynner på -20, vokser til 4.3 x 107 og når vi kommer til ledd nummer hundre har den sunket til 1.4 x 10-28. Svaret skal bli 2.06 x 10-9, så de siste leddene har nok ikke så mye å si, men de største leddene har derimot en hel del å si. Som vi husker har man ca 17 siffer å støtte seg på når man jobber i dobbel presisjon, og vi ser at det jeg prøver å gjøre her er å ta differansen mellom digre tall, for så å forvente å få et fornuftig resultat som er 17 størrelsesordener mindre. Åpenbart en dårlig idé.

Løsningen her er naturligvis å bruke høyere presisjon. Det er imidlertid ikke fullt så rett frem som man skulle tro. Det er selvfølgelig ikke noe problem med nok minne, jeg trenger bare å huske noen få tall av gangen, og et par hundre siffer hadde holdt i massevis, så det er ikke noe stress. Problemet er at prosessorer nå om dagen er bygget med 64-bits registere. Jeg er ikke noen guru på prossesordesign, akkurat, men essensen, slik jeg har forstått det, er at når du ganger sammen to tall i dobbel presisjon blir de lastet inn i to registere i prosessoren, og så kjører man dem gjennom en multiplikasjonsprosess som i stor grad er implementert i hardware. Hvis man derimot ønsker å bruke kvadruppel presisjon, der hvert tall tar 128 bit, må man lagre tallene fordelt over flere registere og bruke software for å sy sammen resultatet til slutt, og vips går det 50 ganger tregere enn dobbel presisjon.

Moralen er altså at man ikke skal kimse av hardware, og at det er bare å glede seg til det kommer prosessorer med 128-bits registere. Skjønt, jeg tror ikke akkurat det er noen skrikende etterspørsel, så det kan fort bli noen år til. Uten at jeg er helt sikker på hvorfor later det til å være en viss sammenheng mellom størrelsen på prosessorregistere for flyttall og størrelse på adresserommet man bruker til minneadressering, og med 64-bits adresserom kan man omtrent adressere hvert eneste atom i universet, så det ligger ikke an til å bli noe problem med det første.
Matteus likes this

Comments

Kristian,  29.11.12 19:49

Interessant. Dog synes jeg moralen er litt merkelig, med tanke på at du med dette eksempelet så går det nok galt nesten uansett.
Dessuten er det fullt mulig å bruke høyere presisjon med standard hardware, det er bare ikke særlig effektivt.
Tor,  29.11.12 20:15

Det går ikke galt uansett, for positive argumenter funker metoden utmerket, og med negative argumenter ned til ca -10 går det helt greit. Og det at det går latterlig tregt med presisjon som ikke har direkte støtte i hardwaren var jo nettopp poenget med moralen. Femti ganger tregere er så mye at det er bare å pakke sammen, som veilederen min ville sagt.

Kristian,  29.11.12 21:48

1. Mente at om du økte presisjonen, så var det bare å velge et litt større negativt tall, så gikk det galt.

2. du har selvsagt rett i det. Mente vel kanskje bare at moralen var at man burde være smart, og om man ikke er det så hjelper det med bedre hardware.
Men igjen, for realistiske problemer så er det ikke alltid mulig å være så smart, så da har du vel rett da.

1

Tor,  30.11.12 11:06

Det er sant at selv med økt presisjon kan du bare beregne litt større verdier. Men i problemet jeg studerer oversettes dette til en sterkere ru overflate, eventuelt en større dielektrisitetskonstant, og kan dermed være veldig nyttig.