droit definition
Qu’est-ce que le droit ?

Le droit est un système de règles créé et appliqué par le biais d’institutions sociales ou gouvernementales pour réguler les comportements. Il a été défini à la fois comme “la science de la justice” et “l’art de la justice“. Ce système garantit que les individus ou une communauté adhèrent à la volonté de l’État. Le droit soulève également des questions importantes et complexes concernant l’égalité, l’équité et la justice. Lire la suite