Calculs différentiels - Differential calculus

Le graphique d'une fonction, dessiné en noir, et une ligne tangente à cette fonction, dessinée en rouge. La pente de la ligne tangente est égale à la dérivée de la fonction au point marqué.

En mathématiques , le calcul différentiel est un sous-domaine du calcul qui étudie les taux auxquels les quantités changent. C'est l'une des deux divisions traditionnelles du calcul, l'autre étant le calcul intégral , c'est-à-dire l'étude de l'aire sous une courbe.

Les principaux objets d'étude en calcul différentiel sont la dérivée d'une fonction , des notions connexes telles que la différentielle et leurs applications. La dérivée d'une fonction à une valeur d'entrée choisie décrit le taux de changement de la fonction près de cette valeur d'entrée. Le processus de recherche d'un dérivé est appelé différenciation . Géométriquement, la dérivée en un point est la pente de la ligne tangente au graphique de la fonction en ce point, à condition que la dérivée existe et soit définie en ce point. Pour une fonction à valeur réelle d'une seule variable réelle, la dérivée d'une fonction en un point détermine généralement la meilleure approximation linéaire de la fonction en ce point.

Le calcul différentiel et le calcul intégral sont liés par le théorème fondamental du calcul , qui stipule que la différenciation est le processus inverse de l' intégration .

La différenciation a des applications dans presque toutes les disciplines quantitatives. En physique , la dérivée du déplacement d'un corps en mouvement par rapport au temps est la vitesse du corps, et la dérivée de la vitesse par rapport au temps est l' accélération . La dérivée de la quantité de mouvement d'un corps par rapport au temps est égale à la force appliquée au corps ; la réarrangement de cette déclaration dérivée conduit à la fameuse F = m une équation associée à la deuxième loi du mouvement de Newton . La vitesse de réaction d'une réaction chimique est un dérivé. En recherche opérationnelle , les dérivés déterminent les moyens les plus efficaces de transporter les matériaux et de concevoir des usines.

Les dérivés sont fréquemment utilisés pour trouver les maxima et les minima d'une fonction. Les équations impliquant des dérivées sont appelées équations différentielles et sont fondamentales pour décrire les phénomènes naturels . Les dérivés et leurs généralisations apparaissent dans de nombreux domaines des mathématiques, tels que l' analyse complexe , l'analyse fonctionnelle , la géométrie différentielle , la théorie de la mesure et l'algèbre abstraite .

Dérivé

Le graphique d'une fonction arbitraire . La ligne orange est tangente à , ce qui signifie qu'à ce point précis, la pente de la courbe et la ligne droite sont les mêmes.
La dérivée en différents points d'une fonction dérivable

La dérivée de au point est la pente de la tangente à . Afin d'acquérir une intuition pour cela, il faut d'abord être familiarisé avec la recherche de la pente d'une équation linéaire, écrite sous la forme . La pente d'une équation est sa raideur. Il peut être trouvé en choisissant deux points quelconques et en divisant le changement de par le changement de , ce qui signifie que . Car, le graphique de a une pente de , comme le montre le diagramme ci-dessous :

Le graphique de

Par souci de concision, est souvent écrit , avec la lettre grecque Delta, signifiant «changer dedans». La pente d'une équation linéaire est constante, ce qui signifie que la pente est la même partout. Cependant, de nombreux graphiques, par exemple , varient dans leur pente. Cela signifie que vous ne pouvez plus choisir deux points arbitraires et calculer la pente. Au lieu de cela, la pente du graphique peut être calculée en considérant la ligne tangente, une ligne qui « touche juste » un point particulier. La pente d'une courbe en un point particulier est égale à la pente de la tangente à ce point. Par exemple, a une pente de à car la pente de la tangente à ce point est égale à :

Le graphique de , avec une droite tangente à . La pente de la tangente est égale à . (Notez que les axes du graphique n'utilisent pas une échelle 1:1.)

La dérivée d'une fonction est alors simplement la pente de cette tangente. Même si la ligne tangente ne touche qu'un seul point au point de tangence, elle peut être approchée par une ligne qui passe par deux points. C'est ce qu'on appelle une ligne sécante . Si les deux points traversés par la ligne sécante sont proches l'un de l'autre, la ligne sécante ressemble beaucoup à la ligne tangente et, par conséquent, sa pente est également très similaire :

La ligne pointillée passe par les points et , qui se trouvent tous les deux sur la courbe . Étant donné que ces deux points sont assez proches l'un de l'autre, la ligne pointillée et la ligne tangente ont une pente similaire. Au fur et à mesure que les deux points se rapprochent, l'erreur produite par la ligne sécante devient extrêmement faible.

L'avantage d'utiliser une ligne sécante est que sa pente peut être calculée directement. Considérez les deux points sur le graphique et , où est un petit nombre. Comme précédemment, la pente de la droite passant par ces deux points peut être calculée avec la formule . Cela donne

Au fur et à mesure que l'on se rapproche de , la pente de la ligne sécante se rapproche de plus en plus de la pente de la ligne tangente. Ceci est formellement écrit comme

L'expression ci-dessus signifie « au fur et à mesure que l'on se rapproche de 0, la pente de la ligne sécante se rapproche de plus en plus d'une certaine valeur ». La valeur qui est approchée est la dérivée de ; cela peut être écrit comme . Si , la dérivée peut également être écrite comme , avec représentant un changement infinitésimal. Par exemple, représente un changement infinitésimal de x. En résumé, si , alors la dérivée de est

pourvu qu'une telle limite existe. Nous avons ainsi réussi à bien définir la dérivée d'une fonction, c'est-à-dire que la « pente de la tangente » a désormais un sens mathématique précis. La différenciation d'une fonction à l'aide de la définition ci-dessus est connue sous le nom de différenciation des premiers principes. Voici une preuve, en utilisant la différenciation des principes premiers, que la dérivée de est :

Comme approche , approche . Par conséquent, . Cette preuve peut être généralisée pour montrer que si et sont des constantes . C'est ce qu'on appelle la règle du pouvoir . Par exemple, . Cependant, de nombreuses autres fonctions ne peuvent pas être différenciées aussi facilement que les fonctions polynomiales , ce qui signifie que parfois d'autres techniques sont nécessaires pour trouver la dérivée d'une fonction. Ces techniques incluent la règle de la chaîne , la règle du produit et la règle du quotient . D'autres fonctions ne peuvent pas du tout être différenciées, d'où le concept de différentiabilité .

Un concept étroitement lié à la dérivée d'une fonction est sa différentielle . Lorsque x et y sont des variables réelles, la dérivée de f en x est la pente de la tangente au graphique de f en x . Comme la source et la cible de f sont unidimensionnelles, la dérivée de f est un nombre réel. Si x et y sont des vecteurs, alors la meilleure approximation linéaire du graphique de f dépend de la façon dont f change dans plusieurs directions à la fois. Prendre la meilleure approximation linéaire dans une seule direction détermine une dérivée partielle , qui est généralement notée y/x. La linéarisation de f dans toutes les directions à la fois est appelée la dérivée totale .

Histoire de la différenciation

Le concept d'un dérivé dans le sens d'une ligne tangente est un très ancien, familier grec Géomètres tels que Euclide (c. 300 BC), Archimedes (c. 287-212 BC) et Apollonius de Perge (c. 262- 190 avant JC). Archimède a également utilisé des indivisibles , bien que ceux-ci aient été principalement utilisés pour étudier les zones et les volumes plutôt que les dérivées et les tangentes (voir La méthode des théorèmes mécaniques ).

L'utilisation d'infinitésimaux pour étudier les taux de changement peut être trouvée dans les mathématiques indiennes , peut-être dès 500 après JC, lorsque l'astronome et mathématicien Aryabhata (476-550) a utilisé des infinitésimaux pour étudier l' orbite de la Lune . L'utilisation d'infinitésimaux pour calculer les taux de changement a été développée de manière significative par Bhāskara II (1114-1185); en effet, il a été avancé que bon nombre des notions clés du calcul différentiel peuvent être trouvées dans son travail, comme le « théorème de Rolle ».

Le mathématicien islamique , Sharaf al-Dīn al-Tūsī (1135-1213), dans son Traité des équations , a établi des conditions pour que certaines équations cubiques aient des solutions, en trouvant les maxima des polynômes cubiques appropriés. Il a prouvé, par exemple, que le maximum de l' axe cubique 2 - x 3 se produit lorsque x = 2 a /3 , et en a conclu que l'équation ax 2 - x 3 = c a exactement une solution positive lorsque c = 4 a 3 /27 , et deux solutions positives chaque fois que 0 < c < 4 a 3 /27 . L'historien des sciences, Roshdi Rashed , a soutenu qu'al-Tūsī doit avoir utilisé la dérivée du cubique pour obtenir ce résultat. La conclusion de Rashed a été contestée par d'autres chercheurs, cependant, qui soutiennent qu'il aurait pu obtenir le résultat par d'autres méthodes qui ne nécessitent pas que la dérivée de la fonction soit connue.

Le développement moderne du calcul est généralement attribué à Isaac Newton (1643-1727) et Gottfried Wilhelm Leibniz (1646-1716), qui ont fourni des approches indépendantes et unifiées de la différenciation et des dérivés. L'idée clé, cependant, qui leur a valu ce crédit, était le théorème fondamental du calcul reliant la différenciation et l'intégration : cela a rendu obsolètes la plupart des méthodes précédentes pour calculer les zones et les volumes, qui n'avaient pas été considérablement étendus depuis l'époque d' Ibn al-Haytham ( Alhazen). Pour leurs idées sur les dérivés, Newton et Leibniz se sont appuyés sur des travaux antérieurs importants de mathématiciens tels que Pierre de Fermat (1607-1665), Isaac Barrow (1630-1677), René Descartes (1596-1650), Christiaan Huygens (1629-1695 ), Blaise Pascal (1623-1662) et John Wallis (1616-1703). Concernant l'influence de Fermat, Newton a écrit une fois dans une lettre que " j'ai eu l'indice de cette méthode [des fluxions] de la manière de Fermat de dessiner des tangentes, et en l'appliquant aux équations abstraites, directement et inversément, je l'ai généralisé. " Isaac Barrow est généralement crédité pour le développement précoce du dérivé. Néanmoins, Newton et Leibniz restent des figures clés de l'histoire de la différenciation, notamment parce que Newton a été le premier à appliquer la différenciation à la physique théorique , tandis que Leibniz a systématiquement développé une grande partie de la notation encore utilisée aujourd'hui.

Depuis le XVIIe siècle, de nombreux mathématiciens ont contribué à la théorie de la différenciation. Au 19ème siècle, le calcul a été mis sur une base beaucoup plus rigoureuse par des mathématiciens tels que Augustin Louis Cauchy (1789-1857), Bernhard Riemann (1826-1866) et Karl Weierstrass (1815-1897). C'est aussi durant cette période que la différenciation s'est généralisée à l' espace euclidien et au plan complexe .

Applications des dérivés

Optimisation

Si f est une fonction différentiable sur (ou un intervalle ouvert ) et x est un maximum local ou un minimum local de f , alors la dérivée de f en x est nulle. Les points où f' ( x ) = 0 sont appelés points critiques ou points stationnaires (et la valeur de f en x est appelée valeur critique ). Si f n'est pas supposé être dérivable partout, alors les points auxquels il n'est pas dérivable sont également désignés points critiques.

Si f est deux fois dérivable, alors inversement, un point critique x de f peut être analysé en considérant la dérivée seconde de f en x  :

  • s'il est positif, x est un minimum local ;
  • s'il est négatif, x est un maximum local ;
  • s'il est égal à zéro, alors x peut être un minimum local, un maximum local ou aucun. (Par exemple, f ( x ) = x 3 a un point critique en x = 0 , mais il n'y a ni maximum ni minimum, alors que f ( x ) = ± x 4 a un point critique en x = 0 et un minimum et un maximum, respectivement, là-bas.)

C'est ce qu'on appelle le test de la dérivée seconde . Une approche alternative, appelée test de la dérivée première , consiste à considérer le signe du f' de chaque côté du point critique.

Prendre des dérivées et résoudre des points critiques est donc souvent un moyen simple de trouver des minima ou des maxima locaux, ce qui peut être utile en optimisation . Par le théorème des valeurs extrêmes , une fonction continue sur un intervalle fermé doit atteindre ses valeurs minimale et maximale au moins une fois. Si la fonction est dérivable, les minima et maxima ne peuvent se produire qu'aux points critiques ou aux extrémités.

Cela a également des applications dans l'esquisse de graphes : une fois que les minima et maxima locaux d'une fonction différentiable ont été trouvés, un tracé approximatif du graphe peut être obtenu à partir de l'observation qu'il augmentera ou diminuera entre les points critiques.

Dans les dimensions supérieures , un point critique d'une fonction à valeur scalaire est un point auquel le gradient est nul. Le test de la dérivée seconde peut encore être utilisé pour analyser les points critiques en considérant les valeurs propres de la matrice hessienne des dérivées partielles secondes de la fonction au point critique. Si toutes les valeurs propres sont positives, alors le point est un minimum local ; si tous sont négatifs, il s'agit d'un maximum local. S'il y a des valeurs propres positives et des valeurs propres négatives, alors le point critique est appelé « point de selle », et si aucun de ces cas ne tient (c'est-à-dire que certaines des valeurs propres sont nulles), alors le test est considéré comme non concluant.

Calcul des variations

Un exemple de problème d'optimisation est : Trouver la courbe la plus courte entre deux points sur une surface, en supposant que la courbe doit également se trouver sur la surface. Si la surface est un plan, la courbe la plus courte est une ligne. Mais si la surface est, par exemple, en forme d'œuf, le chemin le plus court n'est pas immédiatement dégagé. Ces chemins sont appelés géodésiques et l'un des problèmes les plus fondamentaux du calcul des variations est de trouver des géodésiques. Un autre exemple est : Trouvez la plus petite surface de remplissage dans une courbe fermée dans l'espace. Cette surface est appelée surface minimale et elle aussi peut être trouvée en utilisant le calcul des variations.

La physique

Le calcul est d'une importance vitale en physique : de nombreux processus physiques sont décrits par des équations impliquant des dérivées, appelées équations différentielles . La physique s'intéresse particulièrement à la façon dont les quantités changent et se développent au fil du temps, et le concept de « dérivée temporelle » — le taux de variation dans le temps — est essentiel pour la définition précise de plusieurs concepts importants. En particulier, les dérivées temporelles de la position d'un objet sont importantes en physique newtonienne :

  • la vitesse est la dérivée (par rapport au temps) du déplacement d'un objet (distance de la position d'origine)
  • l'accélération est la dérivée (par rapport au temps) de la vitesse d'un objet, c'est-à-dire la dérivée seconde (par rapport au temps) de la position d'un objet.

Par exemple, si la position d'un objet sur une ligne est donnée par

alors la vitesse de l'objet est

et l'accélération de l'objet est

qui est constant.

Équations différentielles

Une équation différentielle est une relation entre un ensemble de fonctions et leurs dérivées. Une équation différentielle ordinaire est une équation différentielle qui relie les fonctions d'une variable à leurs dérivées par rapport à cette variable. Une équation différentielle partielle est une équation différentielle qui relie les fonctions de plus d'une variable à leurs dérivées partielles . Les équations différentielles apparaissent naturellement dans les sciences physiques, dans la modélisation mathématique et dans les mathématiques elles-mêmes. Par exemple, la deuxième loi de Newton , qui décrit la relation entre l'accélération et la force, peut être énoncée comme l'équation différentielle ordinaire

L' équation de la chaleur dans une variable spatiale, qui décrit comment la chaleur se diffuse à travers une tige droite, est l'équation différentielle partielle

Ici , u ( x , t ) est la température de la tige à la position x et du temps t et α est une constante qui dépend de la manière diffuse de la chaleur rapide à travers la tige. (2-3¡)-(3+2)

Théorème de la valeur moyenne

Le théorème de la valeur moyenne : Pour chaque fonction différentiable avec il y a un avec .

Le théorème de la valeur moyenne donne une relation entre les valeurs de la dérivée et les valeurs de la fonction d'origine. Si f ( x ) est une fonction à valeur réelle et a et b sont des nombres avec a < b , alors le théorème de la valeur moyenne dit que sous des hypothèses modérées, la pente entre les deux points ( a , f ( a )) et ( b , f ( b ) ) est égal à la pente de la tangente à f en un point c entre a et b . En d'autres termes,

En pratique, le théorème de la valeur moyenne contrôle une fonction en fonction de sa dérivée. Par exemple, supposons que f ait une dérivée égale à zéro en chaque point. Cela signifie que sa ligne tangente est horizontale en tout point, donc la fonction doit également être horizontale. Le théorème de la valeur moyenne prouve que cela doit être vrai : La pente entre deux points quelconques sur le graphique de f doit être égale à la pente de l'une des lignes tangentes de f . Toutes ces pentes sont nulles, donc toute ligne allant d'un point du graphique à un autre point aura également une pente nulle. Mais cela dit que la fonction ne se déplace pas vers le haut ou vers le bas, il doit donc s'agir d'une ligne horizontale. Des conditions plus compliquées sur la dérivée conduisent à des informations moins précises mais toujours très utiles sur la fonction d'origine.

Polynômes de Taylor et séries de Taylor

La dérivée donne la meilleure approximation linéaire possible d'une fonction en un point donné, mais cela peut être très différent de la fonction d'origine. Une façon d'améliorer l'approximation est de prendre une approximation quadratique. C'est-à-dire que la linéarisation d'une fonction à valeur réelle f ( x ) au point x 0 est un polynôme linéaire a + b ( xx 0 ) , et il peut être possible d'obtenir une meilleure approximation en considérant un quadratique polynôme a + b ( xx 0 ) + c ( xx 0 ) 2 . Encore mieux pourrait être un polynôme cubique a + b ( xx 0 ) + c ( xx 0 ) 2 + d ( xx 0 ) 3 , et cette idée peut être étendue à des polynômes de degré arbitrairement élevé. Pour chacun de ces polynômes, il devrait y avoir un meilleur choix possible de coefficients a , b , c et d qui rend l'approximation aussi bonne que possible.

Au voisinage de x 0 , pour a le meilleur choix possible est toujours f ( x 0 ) , et pour b le meilleur choix possible est toujours f' ( x 0 ) . Pour c , d , et les coefficients de degré supérieur, ces coefficients sont déterminés par les dérivées supérieures de f . c devrait toujours êtref'' ( x 0 )/2, et d doit toujours êtref''' ( x 0 )/3 !. L'utilisation de ces coefficients donne le polynôme de Taylor de f . Le polynôme de Taylor de degré d est le polynôme de degré d qui se rapproche le mieux de f , et ses coefficients peuvent être trouvés par une généralisation des formules ci-dessus. Le théorème de Taylor donne une borne précise sur la qualité de l'approximation. Si f est un polynôme de degré inférieur ou égal à d , alors le polynôme de Taylor de degré d est égal à f .

La limite des polynômes de Taylor est une série infinie appelée série de Taylor . La série de Taylor est souvent une très bonne approximation de la fonction originale. Les fonctions qui sont égales à leur série de Taylor sont appelées fonctions analytiques . Il est impossible que des fonctions présentant des discontinuités ou des angles vifs soient analytiques ; de plus, il existe des fonctions lisses qui ne sont pas non plus analytiques.

Théorème de la fonction implicite

Certaines formes géométriques naturelles, telles que les cercles , ne peuvent pas être dessinées comme le graphique d'une fonction . Par exemple, si f ( x , y ) = x 2 + y 2 − 1 , alors le cercle est l'ensemble de toutes les paires ( x , y ) telles que f ( x , y ) = 0 . Cet ensemble est appelé l'ensemble zéro de f , et n'est pas le même que le graphique de f , qui est un paraboloïde . Le théorème des fonctions implicites convertit des relations telles que f ( x , y ) = 0 en fonctions. Il indique que si f est continûment dérivable , alors autour de la plupart des points, l'ensemble zéro de f ressemble à des graphiques de fonctions collées ensemble. Les points où ce n'est pas vrai sont déterminés par une condition sur la dérivée de f . Le cercle, par exemple, peut être collé ensemble des graphiques des deux fonctions ± 1 - x 2 . Au voisinage de chaque point du cercle sauf (−1, 0) et (1, 0) , l'une de ces deux fonctions a un graphique qui ressemble au cercle. (Ces deux fonctions se rencontrent également (−1, 0) et (1, 0) , mais cela n'est pas garanti par le théorème des fonctions implicites.)

Le théorème de la fonction implicite est étroitement lié au théorème de la fonction inverse , qui indique quand une fonction ressemble à des graphiques de fonctions inversibles collées ensemble.

Voir également

Remarques

Les références