[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[obm-l] Pontos extremos de funções reais



Oi para todos,

 

Eu estou um tanto intrigado com o que consta no excelente livro sobre Análise Real (em R) publicado em 2000 por Robert Bartle e Donald Sherbert (dois grandes autores), "Introduction to Real Analysis".

 

No livro há uma prova daquele famoso teorema o qual diz que, se f é definida em um intervalo I e a é um ponto interior de I no qual as n-1 primeiras derivadas de f são nulas e a derivada de ordem n é diferente de zero, então:
 
Se n é par e a n-ésima derivada é >0, então f tem um mínimo relativo em a;
Se n é par e a n-ésima derivada é <0, então f tem um máximo relativo em a;
Se n é ímpar, então f não tem nem um máximo nem um mínimo relativos em a.
 
A prova baseia-se no Teorema de Taylor e os autores assumem – e é isto justamente o que me intriga – que a derivada de ordem n de f existe e é contínua em uma vizinhança de a. Ora, na realidade, parece-me que o teorema não requer uma hipótese tão forte, não é necessário assumir a continuidade de f^n em um a vizinhança de a. Nem sequer é necessário assumir que f^n exista em toda uma vizinhança de a. A simples existência de f^n já é suficiente para o teorema dos pontos extremos ser válido. Certo?
 
Eu realmente gostaria de saber porque autores consagrados assumem uma hipótese mais forte do que a necessária. (Apesar disto, recomendo intensamente este livro, é excelente)
 
Artur