
Debería haber palabras mejor definidas en el diccionario. O quizá cosas que todos debiéramos aprender a saber de nosotros mismos y que nunca nos enseñaron ni nuestros padres ni en el colegio.
Ese tipo de cosas que evitarían que hiciéramos daño a los demás (ese tipo de daño que se hace sin querer pero que no por eso duele menos).
P.D.: Supongo que esta entrada carece de sentido si no eres yo y no sabes de que hablo :S


