Hugo Pauget Ballesteros
hugo.pauget@dalembert.upmc.fr
Moodle + https://paugesteros.com/courses/om/
C'est pareil (ou presque) !
La masse de cette petite section est \(dm = \rho Sdx\). On applique le PFD à ce petit tronçon : \[\begin{aligned} \rho Sdx\frac{\partial^{2}v(x,t)}{\partial t^{2}} & = T(x,t) - T(x + dx,t) + dxf(x,t) \\ & = dxf(x,t) - dx\frac{\partial T(x,t)}{\partial x} \\ \rho S\frac{\partial^{2}v(x,t)}{\partial t^{2}} & = f(x,t) - \frac{\partial T(x,t)}{\partial x}. \end{aligned}\]
Par l'équilibre des moments en \(x + dx\) on a : \[\begin{aligned} M(x + dx,t) - M(x,t) - dxT(x,t) & = 0 \\ dx\frac{\partial M(x,t)}{\partial x} - dxT(x,t) & = 0 \\ T(x,t) & = \frac{\partial M(x,t)}{\partial x}. \end{aligned}\]
En injectant, on trouve : \[\rho S\frac{\partial^{2}v(x,t)}{\partial t^{2}} = f(x,t) - \frac{\partial^{2}M(x,t)}{\partial x^{2}}.\]
On peut démontrer le fait que : \[M(x,t) = EI\frac{\partial^{2}v(x,t)}{\partial x^{2}}.\] On trouve alors : \[\rho S\frac{\partial^{2}v(x,t)}{\partial t^{2}} = f(x,t) - EI\frac{\partial^{4}v(x,t)}{\partial x^{4}},\] soit en ré-arrangeant : \[\frac{\partial^{2}v(x,t)}{\partial t^{2}} + c_{T}^{2}\frac{\partial^{4}v(x,t)}{\partial x^{4}} = \frac{1}{\rho S}f(x,t)\] où \(f(x,t)\) est une densité linéique de force et où : \[c_{T} ≝ \sqrt{\frac{EI}{\rho S}}\]
Intéressons-nous premièrement au cas libre (\(f(x,t) = 0\)) : \[\frac{\partial^{2}v(x,t)}{\partial t^{2}} + c_{T}^{2}\frac{\partial^{4}v(x,t)}{\partial x^{4}} = 0\]
Essayons de trouver des solutions sous la forme : \[v(x,t) = X(x)\Phi(t)\] En injectant dans l'équation, on tombe sur l'équation suivante : \[\frac{c_{T}^{2}}{X(x)}\frac{\partial^{4}X(x)}{\partial x^{4}} = - \frac{1}{\Phi(t)}\frac{\partial^{2}\Phi(t)}{\partial t^{2}}.\] Ces deux membres doivent être constants par rapport au temps et à l'espace. Notons cette constante \(\omega^{2}\) : \[\frac{c_{T}^{2}}{X(x)}\frac{\partial^{4}X(x)}{\partial x^{4}} = - \frac{1}{\Phi(t)}\frac{\partial^{2}\Phi(t)}{\partial t^{2}} = \omega^{2.}\] Ceci conduit aux deux équations différentielles : \[ \begin{cases} \frac{\partial^{4}X(x)}{\partial x^{4}} - \underset{\gamma^{4}}{\underbrace{\frac{\omega^{2}}{c_{T}^{2}}}}X(x) &= 0 \\ \frac{\partial^{2}\Phi(t)}{\partial t^{2}} + \omega^{2}\Phi(t) &= 0 \end{cases} \]
Nous connaissons bien la seconde équation. Ses solutions s'écrivent : \[\Phi(t) = A\cos(\omega t) + B\sin(\omega t).\] Pour l'équation différentielle sur \(X(x)\) , nous pouvons essayer de trouver des équations sous la forme \(X(x) = \hat{X}e^{rx}\). Nous trouvons alors les racines suivantes \(r = \gamma, - \gamma,i\gamma, - i\gamma\). Une solution \(X(x)\) peut donc s'écrire comme une combinaison linéaire de ces 4 solutions : \[\begin{aligned} X(x) & = C_{1}e^{\gamma x} + C_{2}e^{- \gamma x} + C_{3}e^{i\gamma x} + C_{4}e^{- i\gamma x} \\ & = C\cos(\gamma x) + D\sin(\gamma x) + G\cosh(\gamma x) + H\sinh(\gamma x) \end{aligned}\] Comme toujours avec les équations différentielles, une fois qu'on a trouvé une forme de solutions, on regarde si on en a trouvé assez pour pouvoir dire qu'on les a toutes trouvées. Ici nous avons une équation différentielle linéaire d'ordre 4, et les solutions trouvées sont une combinaison linéaire de quatre fonctions ``indépendantes''. Un théorème mathématique nous assure qu'on a trouvé toutes les solutions.
Deux bords encastrés : \[\begin{cases} v(x = 0,t) & = 0 \\ \frac{\partial v}{\partial x}(x = 0,t) & = 0 \\ v(x = L,t) & = 0 \\ \frac{\partial v}{\partial x}(x = L,t) & = 0 \end{cases}\] En prenant en compte les conditions en \(x = 0\) dans l'expression de nos solutions, il vient que : \[\begin{cases} C & = - G \\ D & = - H \end{cases}\] Puis en prenant en compte les conditions en \(x = L\) : \[\begin{cases} C\left\lbrack \cos(\gamma L) - \cosh(\gamma L) \right\rbrack + D\left\lbrack \sin(\gamma L) - \sinh(\gamma L) \right\rbrack & = 0 \\ - C\left\lbrack \sin(\gamma L) + \sinh(\gamma L) \right\rbrack + D\left\lbrack \cos(\gamma L) - \cosh(\gamma L) \right\rbrack & = 0 \end{cases}\] Ce système d'équations s'écrit sous forme matricielle : \[\underset{M}{\underbrace{\begin{pmatrix} \cos(\gamma L) - \cosh(\gamma L) & \sin(\gamma L) - \sinh(\gamma L) \\ - \sin(\gamma L) - \sinh(\gamma L) & \cos(\gamma L) - \cosh(\gamma L) \end{pmatrix}}} \begin{pmatrix} C \\ D \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix} \]
Regardons les conditions pour que $\det(M) \ne 0$ : \[\begin{aligned} \det(M) & = 0 \\ \left\lbrack \cos(\gamma L) - \cosh(\gamma L) \right\rbrack\left\lbrack \cos(\gamma L) - \cosh(\gamma L) \right\rbrack + \left\lbrack \sin(\gamma L) + \sinh(\gamma L) \right\rbrack\left\lbrack \sin(\gamma L) - \sinh(\gamma L) \right\rbrack & = 0 \\ \ldots & = 0 \\ \cos(\gamma L)\cosh(\gamma L) & = 1 \end{aligned}\] Cette équation n'admet pas de solutions analytiques : il nous faut les calculer numériquement. Dans la suite nous notons \(\gamma_{m}\) ces solutions. Au final, seules certaines fonctions \(X(x)\) trouvées précédemment permettent de respecter les conditions aux limites. Il s'agit des : \[X_{m}(x) = C_{m}\left\lbrack \cos(\gamma_{m}x) - \cosh(\gamma_{m}x) \right\rbrack + D_{m}\left\lbrack \sin(\gamma_{m}x) - \sinh(\gamma_{m}x) \right\rbrack.\] Ce qui nous donne une famille de solutions possibles de la forme : \[\begin{aligned} u_m(x,t) = & X_{m}(x) && \times \Phi_{m}(t) \\ = & \left. \left\lbrack C_{m}\left\lbrack \cos(\gamma_{m}x) - \cosh(\gamma_{m}x) \right\rbrack + D_{m}\left\lbrack \sin(\gamma_{m}x) - \sinh(\gamma_{m}x) \right\rbrack \right\rbrack \right. &&\times \left. \left\lbrack A_{m}\cos(\omega_{m}t) + B_{m}\sin(\omega_{m}t) \right\rbrack \right. \end{aligned}\] où \(\gamma_{m}\) et \(\omega_{m}\) ne peuvent prendre qu'un certain nombre de valeurs, et où les constantes \(C_{m}\), \(D_{m}\), \(A_{m}\) et \(B_{m}\) restent à déterminer en fonction des conditions initiales.
Nous avons trouvé une famille de solutions vérifiant l'équation et les conditions aux limites (dans le cas encastré - encastré) : \[v_m(x,t) = X_{m(x)}\Phi_{m(t)}\] Considérons maintenant une combinaison linéaire de ces solutions : \[v(x,t) = \sum_{m = 1}^{+ \infty}X_{m(x)}\Phi_{m(t)}\] Comme l'équation est linéaire, cette combinaison linéaire est aussi solution de l'équation différentielle. De plus, cette solution vérifie aussi les conditions aux limites. Nous allons maintenant voir pourquoi cette combinaison linéaire permet de décrire n'importe quel mouvement possible dans notre barre.
Supposons que nous ayons une fonction \(v_{0}(x)\) donnant la position initiale de n'importe quel point de notre barre, et une fonction \({\dot{v}}_{0}(x)\) donnant la vitesse initiale de n'importe quel point de notre barre. On a : \[\begin{cases} \begin{array}{r} v_{0}(x) ≝ v(x,0) = \sum_{m = 1}^{\infty}A_{m}X_{m}(x) \\ {\dot{v}}_{0}(x) ≝ \dot{v}(x,0) = \sum_{m = 1}^{\infty}\omega_{m}B_{m}X_{m}(x) \end{array} \end{cases}\] En multipliant ces deux équations par \(X_{m}(x)\), en intégrant de \(0\) à \(L\) puis en tenant compte de la relation d'orthogonalité, il vient : \[A_{m} = \int_{0}^{L}v_{0}(x)X_{m}(x)dx\quad\text{ et }\quad B_{m} = \frac{1}{\omega_{m}}\int_{0}^{L}{\dot{v}}_{0}(x)X_{m}(x)dx.\] En conclusion, nous avons trouvé une solution de l'équation diff. respectant les conditions aux limites et les conditions initiales.
Imaginons maintenant que notre système soit soumis à une force extérieure \(f(x,t)\). Nous avions trouvé l'équation suivante : \[\frac{\partial^{2}v(x,t)}{\partial t^{2}} + c_{T}^{2}\frac{\partial^{4}v(x,t)}{\partial x^{4}} = \frac{1}{\rho S}f(x,t)\] Voyons s'il existe une solution de la forme : \[v(x,t) = \sum_{m = 1}^{+ \infty}X_{m}(x)\Phi_{m}(t).\] En injectant dans notre équation différentielle, nous obtenons : \[\sum_{m = 1}^{+ \infty}X_{m}(x)\frac{\partial^{2}\Phi_{m}(t)}{\partial t^{2}} + c_{T}^{2}\Phi_{m(t)}\frac{\partial^{4}X_{m}(x)}{\partial x^{4}} = \frac{1}{\rho S}f(x,t)\] ou encore : \[\sum_{m = 1}^{+ \infty}\left\lbrack \frac{\partial^{2}\Phi_{m}(t)}{\partial t^{2}} + \omega_{m}^{2}\Phi_{m(t)} \right\rbrack X_{m}(x) = \frac{1}{\rho S}f(x,t).\]
En multipliant cette équation par \(X_{n}(x)\) et en intégrant de \(0\) à \(L\), nous obtenons : \[\frac{\partial^{2}\Phi_{n}(t)}{\partial t^{2}} + \omega_{n}^{2}\Phi_{n}(t) = \int_{0}^{L}\frac{1}{\rho S}f(x,t)X_{n}(x)dx.\] Il ne reste ``plus qu'à'' résoudre cette équation différentielle. Nous savons déjà que les solutions de cette équation s'écrivent comme la somme des solutions de l'équation homogène (correspondant au régime libre, ou régime transitoire en présence d'amortissement) et d'une solution particulière (correspondant au régime stationnaire). Afin de ne pas surcharger les calculs, et comme nous nous intéressons surtout au régime stationnaire, nous nous contenterons la plupart du temps de trouver une solution particulière.
En guise d'exemple, et afin de voir une résolution complète, supposons que \(f\) est une fonction sinusoïdale appliquée au point \(x_{0}\) : \[f(x,t) = f_{0}\delta(x - x_{0})\sin(\Omega t)\] En cherchant une solution particulière de la forme : \[\Phi_{n}(t) = A_{n}\sin(\Omega t)\] Nous trouvons la relation suivante : \[A_{n} = \frac{\frac{f_{0}}{\rho S}\int_{0}^{L}\delta(x - x_{0})X_{n}(x)dx}{w_{n}^{2} - \Omega^{2}} = \frac{\frac{f_{0}}{\rho S}X_{n}\left( x_{0} \right)}{w_{n}^{2} - \Omega^{2}}\] Le déplacement s'écrit alors (en régime stationnaire) : \[v(x,t) = \sum_{n = 1}^{\infty}X_{n}(x)\Phi_{n}(t) = \frac{f_{0}}{\rho S}\sum_{n = 1}^{\infty}\frac{X_{n}\left( x_{0} \right)}{w_{n}^{2} - \Omega^{2}}X_{n}(x)\sin(\Omega t)\]