El rendimiento no sólo depende del hardware puro y duro: también influye qué flujo tiene nuestra aplicación y lo optimizado de las capas intermedias (bibliotecas y drivers). Esto es particularmente importante en el caso de las GPU.
Normalmente, para GPU uno suele recurrir a CUDA. En cuyo caso, parece que lo más importante es cuantos núcleos CUDA tiene la tarjeta gráfica que vamos a usar (suponiendo que nuestro programa sea realmente capaz de exprimirlos todos…) Normalmente, el número de cores por euro suele favorecer más a la serie GTX.
Pero claro, hay que justificar el precio de las gamas profesionales (Quadro y Tesla). Las Quadro consiguen un 50% de rendimiento en doble precisión (frente a precisión simple). Las GTX están «capadas» para que sólo ofrezcan un 12% del rendimiento. Con lo cual, si tu algoritmo necesita o se beneficia de doble precisión, seguramente te convenga una Quadro.
Otra costosa diferencia entre GTX y Quadro es la cantidad y tipo de memoria. Las tarjetas «pro» suelen integrar proporcionalmente más memoria, y además suele ser memoria con corrección de errores (ECC)
También, las gamas Pro las supervisa directamente Nvidia, con lo cual las tarjetas suelen ser más robustas y fiables. Las GTX pueden venir «overclockeadas» de serie, lo cual puede producir sospechosos cuelgues al darles cera (tÃpico de cálculo GPU)
El caso de los controladores también es relevante. Por ejemplo, programas como Autodesk Maya están muy optimizados para Quadro, con lo cual seguramente te compense tirar de Quadro para este caso.
Más detalles en esta pregunta en Superuser