Histoire

Question

Comment, après la Seconde Guerre mondiale, les territoires colonisés obtiennent leur indépendance et tentent de s'affirmer sur la scène internationale ?
Merci d'avance pour votre aide !

1 Réponse

  • Réponse : apres la seconde guerre mondiale les territoires colonises accedent a l'independance par la guerre ou par les négociation . la plupart des colonies obtienne leur independance pacifiquement comme linde l'afrique noir , l'algerie et l'indochine francaise l'obtienne par la guerre

    Explications : j'espere t'avoir aider , et desole si il y'a des fautes j'ecris vite

Autres questions