Anatomie (Begriffsklärung)
Anatomie ist
- die Wissenschaft und Lehre vom (überwiegend mechanisch) inneren Aufbau eines menschlichen oder tierischen Körpers, siehe Anatomie
- die Einrichtung, in der Anatomie im ersten Sinne gelehrt wird.
- ein Kinofilm, siehe Anatomie (Film)
vergleiche auch: Physiologie
Diese Seite dient der Unterscheidung gleich geschriebener Wörter, da „Anatomie_(Begriffsklärung)“ mehrere Bedeutungen hat. Bitte beschränken Sie diese Begriffsklärung auf eine stichwortartige Definition und verlinken Sie pro Bedeutung nur einen Artikel mit einem eindeutigen Namen. Falls Sie von einem anderen Wikipedia-Artikel hierhin gelangt sind, gehen Sie bitte dorthin zurück und ändern Sie den Verweis, dem Sie gefolgt sind, auf den korrekten Artikel aus der obigen Liste.