Metodo dell'interpolazione lineare
Da Wikipedia, l'enciclopedia encyclopedia
Il metodo dell'interpolazione lineare è un metodo numerico per trovare le radici di una funzione. È una versione leggermente più raffinata del metodo della bisezione e ne ripercorre pregi e difetti. Necessita della stima iniziale di un intervallo (a,b) entro cui debba esser compresa la radice, tale che f(a)×f(b) < 0. È anch'esso un metodo del primo ordine e dunque prevede una convergenza lenta. La stabilità è garantita.
Sia data una sequenza di n numeri reali distinti xk per k=1,...,k=n chiamati nodi e per ogni xk sia dato un secondo numero reale yk. L'interpolazione si propone di cercare una funzione di variabile reale f(x) di una certa famiglia di funzioni di variabile reale tale che sia
- .
Una coppia (xk,yk) viene chiamato punto dato ed f viene detta interpolante per i punti dati.
Quando gli yk sono forniti da una funzione nota talora si scrivono fk.
L'algoritmo sfruttato dal metodo è il seguente:
- Scelta iniziale di a e b tali che f(a)×f(b) < 0
- c = (a×f(b) - b×f(a))/(f(b) - f(a))
- Se f(c) = 0 entro un certo criterio di tolleranza, c è la soluzione cercata
- Se f(a)×f(c) < 0 la radice è compresa nell'intervallo (a,c)
- Se f(c)×f(b) < 0 la radice è compresa nell'intervallo (b,c)
- Si ripete il ciclo rimpiazzando a o b con c a seconda se sia soddisfatta la condizione 4. o 5.
Si distingue dalla bisezione solo nel punto 2. dove si impiega un'interpolazione lineare piuttosto che dimezzare semplicemente l'intervallo. Questo accorgimento migliora l'efficienza del metodo.