La somma di due funzioni periodiche può essere anch’essa periodica se il rapporto tra i periodi delle due funzioni è razionale. La funzione risultante ha un periodo che è il minimo comune multiplo tra i periodi delle prime funzioni.

(
t = (0,0.001..1);
f = sin(2*pi*t*4);
g = sin(2*pi*t*5);
f.plot;
g.plot;
h = f+g;
h.plot;
)

Il nostro orecchio sente meglio suoni che variano in scala logaritmica, e la percepisce come equidistanziata. Questo è molto visibile nelle scale delle ottave, che variano tutte per multipli di 2. Se si analizza il do ad esempio, le frequenze delle ottave di do sono 8Hz, 16Hz, 32Hz, 65Hz, etc…
Tutte le ottave, di qualunque nota seguono sempre questo comportamento.

SNR

In telecomunicazioni ed elettronica il rapporto segnale-rumore, spesso abbreviato con la sigla inglese SNR (Signal to Noise Ratio) o S/N anche nell’uso italiano, è una grandezza numerica che mette in relazione la potenza del segnale utile rispetto a quella del rumore in un qualsiasi sistema di acquisizione, elaborazione o trasmissione dell’informazione.

Wikipedia

Questa quantità si calcola come:

Dove è l’RMS.

import numpy as np
def SNR(original, quantized):
	noise = quan tized - original
	powS = np.sum(original**2)
	powN = np.sum(noise**2)
	return 10*np.log10(powS/powN)

Vedi anche: RMS, Quantizzazione

Link to original

Transclude of Dinamica-di-un-segnale#^872a22

I think a better term for quantization noise is simply “error.” When you digitize a signal voltage, there are a finite number of digital levels (numbers) you can use to describe it. The error is the difference between the actual, analog voltage level, and the digital level you use to represent it.

In signal processing terms, error is “information loss.” An analog signal has an infinite amount of information — any way you measure the voltage can be infinitely subdivided. A digital signal has a finite amount of information. When you digitize a signal, you lose information, and it can never be recovered.

What’s in that information? It’s unknown. If there are no biases in your system, it’s random. A random signal is noise.

So that’s where the terms come from.

Can you actually hear that noise? Mathematically, it’s definitely there; but does it sound like “white noise?” I’m a little unclear on that myself.

I find it easier to understand in visual terms. In image digitization, quantization error looks like color banding. If you have a continuous color gradient, artifacts due to color bit depth appear as “stripes” in the gradient. The lower the bit depth, the wider the bands.

The math, and, in fact, the tech is identical between the domains. It’s just our senses which are different. The audio equivalent of quantization error is what color banding “sounds” like.

ananbd on Reddit

Link to original

Esistono alcuni tipi di quantizzazione non lineare che cercano di ovviare al problema del rumore in livelli bassi, ad esempio esiste la quantizzazione logaritmica.