математика с удвоенной точностью
с двойной точностью в большинстве современных языков программирования обозначает 64-битовое представление действительного числа Смотри также: extended-precision, floating point Антоним(ы): single-precision