Significado de Decir

Qué es Decir:

Decir es un verbo que significa manifestar o comunicar con palabras lo que se piensa o se cree. La palabra, como tal, proviene del latín dicĕre.

Puede emplearse como sinónimo de asegurar, sostener u opinar. Por ejemplo: “El acusado continúa diciendo que él no lo hizo”.

También se puede utilizar como equivalente de nombrar o llamar: “Ella me sigue diciendo Alonso, cuando sabe que mi nombre es Alfonzo”.

Asimismo, decir significa expresar algo o dar muestras de ello con la expresión, con un gesto o una actitud: “La cara de Luis dice que ganó el premio”.

Decir, cuando nos referimos a un libro o texto, significa que este contiene ciertos temas o ideas: “El principito es un libro que dice de la importancia del amor y la amistad”.

Por otro lado, el verbo decirse, usado como pronominal, significa expresar un pensamiento mentalmente, para sí mismo, sin comunicarlo a nadie más: “Me dije que era mejor salir diez minutos antes para llegar a tiempo”.

Finalmente, decir también puede funcionar como sustantivo, para referirse a un dicho, refrán o frase ingeniosa o sentenciosa que expresa una idea o concepto: “Es un decir que el ojo del amo engorda el caballo”.

Fecha de actualización: 02/02/2016. Cómo citar: "Decir". En: Significados.com. Disponible en: https://www.significados.com/decir/ Consultado: