Faut-il soigner les caries même si elles ne font pas mal ?

Faut-il soigner les caries même si elles ne font pas mal ?

La carie dentaire est une maladie progressive qui attaque l’émail de la dent et, si elle n’est pas traitée, elle progresse jusqu’à atteindre la pulpe de la dent, provoquant son inflammation.

Dans la phase initiale, les caries sont souvent asymptomatiques et il est nécessaire d’intervenir avant qu’elles ne deviennent plus étendues pour éviter de perdre la structure, il est recommandé d’intervenir tôt lorsqu’elles sont détectées.