Planter
Définition
Le verbe 'planter' désigne principalement l'action de mettre en terre une plante, un arbre ou un végétal pour qu'il s'enracine et se développe. Par extension, il signifie fixer solidement un objet dans le sol ou une surface (comme un piquet, un clou, un drapeau). Dans un registre familier, il peut aussi signifier abandonner quelqu'un brusquement ou laisser tomber une activité.
Étymologie
Du Latin « plantare (de planta, 'plante du pied' puis 'plant', 'rejeton') ». Le latin 'plantare' signifiait 'enfoncer en terre' (un rejeton). Le sens s'est étendu à toute fixation en terre, puis, par métaphore, à l'idée de fixer ou d'abandonner (comme si l'on 'enfonçait' quelqu'un dans une situation).
Synonymes
Antonymes
Famille de mots
- plante
- plantation
- planteur
Phrases d'exemple
"Chaque printemps, je plante des tomates dans mon potager familial."
"Si tu avais une pelle, tu planterais cet arbre plus facilement."
"Il faut que nous plantions les piquets avant la tombée de la nuit."
"Plante ce drapeau au sommet de la colline, soldat !"
"Elles ont planté toutes les semis pendant l'atelier scolaire."
