Cookie Consent by Free Privacy Policy website

National Geographic (Hsg.)

Das Magazin „National Geographic“ ist eine durch die National Geographic Society herausgegebene Zeitschrift, die heute, wie vor mehr als 120 Jahren, für sorgfältig und neutral recherchierte Reportagen aus aller Welt und spektakuläre Fotografien steht. Die Society wurde 1888 im Washingtoner Cosmos Club gegründet und hatte die Förderung der Geographie zum Ziel. Der Allgemeinheit sollten geographische Kenntnisse näher gebracht werden. Hierfür wurden geographische Forschungsprojekte gefördert und in dem monatlich erscheinenden Magazin darüber berichtet. Seit 1999 erscheint die Zeitschrift auch im deutschen Gruner + Jahr-Verlag. Sie erhielt bereits zahlreiche Auszeichnungen, darunter den Prinz-von-Asturien-Preis für Kommunikation und Geisteswissenschaften sowie den General Excellence Award und den Preis für die beste Fotografie der American Society Magazine Editors. Die exzellenten fotografischen Aufnahmen sind eines der Markenzeichen des Magazins und prägten von Beginn an den Blick der Menschen auf die Erde. Sie fingen nicht nur unwiederbringlich Verlorenes ein, sondern sind auch exemplarisch für die Entwicklung der Fotografie. 2009 erschien ein Sammelband mit den legendärsten Aufnahmen aus 121 Jahren Naturfotografie im Auftrag der „National Geographic“: „National Geographic – Die Bilder: Das legendäre Fotoarchiv von 1888 bis heute“.

Top-Thema

Hochkonjunktur für Reiseführer für Brasilien

Seitdem Brasilien die Fußball-WM 2014 und die Olympischen Spiele 2016 ausgetragen hat, haben Reiseführer für Brasilien Hochkonjunktur. Was Sie von ihnen erwarten können und welche sich wirklich lohnen, erfahren Sie hier.

Brasilien hat viele Gesichter - daher ist der richtige Reiseführer wichtig.

Top-Thema

Der Erste Weltkrieg und seine ewige Mahnung

Der Erste Weltkrieg jährt sich 2014 zum 100. Mal. Anlässlich dieses Jahrestags ist es wichtig, sich die Schrecken von damals zu gegenwärtigen, damit sie sich nicht wiederholen. Wir empfehlen Bücher zum Ersten Weltkrieg.

Der Erste Weltkrieg hat tiefe Wunden in die Geschichte Europas gerissen, die noch verheilen müssen.