mercoledì 17 marzo 2010
Dizionario : Autoritarismo
Con il termine autoritarismo si indica l'atteggiamento di chi esercita un'autorità, trascurando o eliminando del tutto i limiti legali del suo potere. Con lo stesso termine storiograficamente s'identifica generalmente un particolare tipo di organizzazione politica cresciuta nel corso del Novecento.
Iscriviti a:
Commenti sul post (Atom)
0 commenti:
Posta un commento