Ми маємо a, b, c, dinRR такі, що ab = 2 (c + d). Як довести, що принаймні одне з рівнянь x ^ 2 + ax + c = 0; x ^ 2 + bx + d = 0 мають подвійні корені?

Ми маємо a, b, c, dinRR такі, що ab = 2 (c + d). Як довести, що принаймні одне з рівнянь x ^ 2 + ax + c = 0; x ^ 2 + bx + d = 0 мають подвійні корені?
Anonim

Відповідь:

Твердження є помилковим.

Пояснення:

Розглянемо дві квадратичні рівняння:

# x ^ 2 + ax + c = x ^ 2-5x + 6 = (x-2) (x-3) = 0 #

і

# x ^ 2 + bx + d = x ^ 2-2x-1 = (x-1-sqrt (2)) (x-1 + sqrt (2)) = 0 #

Потім:

#ab = (-5) (- 2) = 10 = 2 (6-1) = 2 (c + d) #

Обидва рівняння мають різні реальні корені і:

#ab = 2 (c + d) #

Отже, твердження є помилковим.