
Coach minceur & naturopathe — FruchartÉquilibre
Rééquilibrage alimentaire durable et personnalisé

Intelligence artificielle et diététique : des limites invisibles que l’on ne perçoit qu’avec le recul
L’intelligence artificielle s’est imposée très rapidement comme un outil d’aide à l’information dans de nombreux domaines, y compris en nutrition et en diététique. Elle est rapide, accessible, souvent claire, et donne des réponses structurées qui peuvent rassurer. C’est précisément pour cette raison que ses limites sont parfois difficiles à identifier.
En matière de santé et de comportement alimentaire, le problème ne se situe pas uniquement dans l’erreur ponctuelle. Il réside surtout dans des limites structurelles, plus discrètes, qui ne deviennent visibles qu’avec le temps, l’accumulation et l’absence de suivi réel.
L’un des premiers points concerne l’illusion de personnalisation. Les outils d’intelligence artificielle donnent souvent l’impression de proposer des réponses adaptées à la situation individuelle. Ils reformulent les questions, ajustent le vocabulaire et prennent en compte certaines informations fournies par l’utilisateur. Pourtant, cette personnalisation reste superficielle. L’IA ne suit pas une personne dans la durée, ne détecte pas les micro-dérives progressives, ne perçoit ni la fatigue mentale ni la lassitude, et ne distingue pas toujours un effort sain d’un comportement compensatoire. Elle répond à des instantanés, pas à une trajectoire. Or, en diététique, l’essentiel se joue rarement sur une réponse isolée, mais sur l’évolution dans le temps.
À cela s’ajoute l’absence totale de lecture émotionnelle et comportementale. L’alimentation n’est pas un simple calcul de calories ou de macronutriments. Elle est intimement liée aux émotions, au stress, à l’histoire personnelle, aux échecs passés et parfois à des troubles du comportement alimentaire plus ou moins conscients. Une intelligence artificielle ne perçoit ni la culpabilité, ni la rigidité mentale, ni la perte progressive de confiance en soi. Elle peut proposer une réponse logiquement correcte à une situation qui, humainement, nécessiterait au contraire de ralentir, d’ajuster ou de changer complètement d’approche.
Un autre aspect rarement pris en compte est celui de l’accumulation d’erreurs silencieuses. Une approximation ponctuelle n’est généralement pas problématique. En revanche, une succession de petites erreurs, de chiffres approximatifs ou de recommandations légèrement inadaptées peut conduire, à long terme, à des déséquilibres réels. En nutrition, ces dérives progressives peuvent entraîner une restriction non consciente, une perte de repères alimentaires, un sentiment d’échec inexpliqué ou un découragement durable. L’intelligence artificielle ne dispose d’aucun mécanisme interne lui permettant de détecter ces glissements. Elle ne sait ni quand s’arrêter, ni quand remettre en question sa propre logique.
À ces limites s’ajoute un biais particulièrement puissant : l’autorité perçue. Plus une réponse est fluide, rapide et affirmative, plus elle inspire confiance. Comme pour un diagnostic médical, de nombreuses personnes ont tendance à suspendre leur esprit critique face à une réponse bien formulée, même lorsque celle-ci ne correspond pas réellement à leur situation. Ce phénomène est bien connu en psychologie cognitive : la forme influence fortement la crédibilité, indépendamment du fond.
Enfin, il existe une différence fondamentale que l’on ne peut ignorer en matière de santé : l’absence totale de responsabilité. Une intelligence artificielle n’engage aucune responsabilité pénale ou financière, n’assume aucune conséquence en cas d’erreur et ne corrige pas ses recommandations dans le temps. Si un conseil est mal appliqué, excessif ou inadapté, l’outil n’en subit aucune conséquence. La personne, en revanche, en assume pleinement les effets.
Ces limites sont d’autant plus difficiles à percevoir que l’intelligence artificielle fonctionne relativement bien tant que la situation est simple, que les objectifs sont clairs et que les variables sont peu nombreuses. Les difficultés apparaissent lorsque la situation devient complexe, lorsque le vécu émotionnel entre en jeu et lorsque l’historique personnel influence le comportement alimentaire. C’est précisément dans ces contextes que l’accompagnement humain prend tout son sens.
L’intelligence artificielle peut être un outil utile pour s’informer, comprendre des notions générales et amorcer une réflexion. Mais dès qu’il s’agit de comportement, de suivi, de responsabilité et de santé à long terme, elle montre des limites structurelles qu’aucune amélioration technique ne suffit à effacer.
Informer n’est pas accompagner. Répondre n’est pas assumer.
C’est cette différence, souvent invisible au départ, qui fait toute la différence avec le temps.