Buscador de significados

¿Qué significa educación física?


La educación física es una disciplina o materia de la enseñanza que se centra en el uso del cuerpo. en enseñar diferentes actividades, tanto físicas como deportivas, para facilitar el bienestar de los alumnos, tanto físico como mental.

Uno de los objetivos principales de la educación física es conseguir implantar en los alumnos el hábito de practicar ejercicio y deporte, para así tener más posibilidades de desarrollar una vida sana y activa. El establecimiento de la educación física como asignatura hace más fácil la posibilidad de que todas las personas tengan las mismas posibilidades de poder gozar de un buen estado de salud.