Bonjour,
C'est probablement une question bête mais j'arrive pas a comprendre quelque chose. Si on a une fonction f de E dans F différentiable, tel que si on considère U un ouvert de E, avec a€U, alors la restriction de f à U est différentiable en a. Alors apparemment on devrait avoir f différentiable en a. Mais pourquoi ?
La diff en a de sa restriction permet de savoir qu'on a une application lineaire L(a) continue de U dans F qui va bien (selon la def d'une différentielle en un point), mais ca n'implique pas forcement l'existence d'une application lineaire continue de E dans F qui va bien, non ? On peut pas forcement prolonger une application lineaire continue et que son prolongement soit lineaire continue, non ? (à moins par exemple que la dimension de E soit finie et que U soit dense dans E, et F complet il me semble)
On applique pourtant souvent ca j'ai l'impression, car en prenant R^2 et R, par exemple, si f la restriction de f à R^2\(0,0) est différentiable, alors on dit que f est différentiable sur R^2\{(0,0)}. Est-ce du au fait que R^2\(0,0) est un ouvert dense dans R^2 et que dim(R^2) est finie et R complet ? Ou pas du tout ?
Merci d'avance
La def que j'ai toujours vu moi c'est que L(a) doit être continue sur E tout entier
Une application "linéaire" continue définie sur un ouvert d'un R-ev contenant l'origine (qui s'identifie à a) se prolonge à l'espace entier par simple translation.