Ich habe mal eine (vielleicht) etwas provokante These. Ich glaube das eine Religion je toleranter sie wird auch immer schwächer wird. Oder genauer gesagt sobald eine Religion nicht mehr den absoluten Wahrheitsanspruch vertritt, verliert sie Mitglieder. In der toleranten westl. Gesells. herrscht Religionsfreiheit. Wissenschaft wird nicht mehr unterdrückt. Seitdem ist das Christentum mit seinen Festen zur bloßen Tradition degradiert. (Bsp. Weihnachten) Ich weiß wovon ich spreche: Obwohl ich als Sohn von von einem Pfarrer aufgewachsen bin habe ich eigentlich nie an Gott geglaubt (und ich habe es versucht). Ich glaube das liegt daran das ich von meinen Eltern nie wirklich streng indoktriniert wurde (und ich bin ihnen Dankbar dafür).
Je mehr Rituale und Vorschriften es gibt, die am besten der Jungen von klein auf anerzogen wird, desto erfolgreicher ist eine Religion. So kommt es mir jedenfalls vor. Wird der Jugend hingegen erzählt, andere Religionen haben auch eine Daseinsberechtigung, und die wissenschaftl. Erkenntnisse sind ja total vereinbar mit der heiligen Schrift wenn man sie so und so auslegt... Wieso sollte der Gläubige seine Religion da noch ernst nehmen.