Precision (datavetenskap)

Inom datavetenskap är precisionen för en numerisk storhet ett mått på detaljen i vilken kvantiteten uttrycks . Detta mäts vanligtvis i bitar, men ibland i decimalsiffror. Det är relaterat till precision i matematik , som beskriver antalet siffror som används för att uttrycka ett värde.

Några av de standardiserade precisionsformaten är

Av dessa används sällan åttaprecisionsformat. Enkel- och dubbelprecisionsformaten är mest använda och stöds på nästan alla plattformar. Användningen av halvprecisionsformat har ökat särskilt inom området maskininlärning eftersom många maskininlärningsalgoritmer i sig är feltoleranta.

Avrundningsfel

Precision är ofta källan till avrundningsfel i beräkningar . Antalet bitar som används för att lagra ett nummer kommer ofta att orsaka viss förlust av noggrannhet. Ett exempel skulle vara att lagra "sin(0.1)" i IEEE enkelprecisions flyttalsstandard. Felet förstoras sedan ofta när efterföljande beräkningar görs med hjälp av data (även om det också kan reduceras).

Se även