master.dbo.fn_varbintohexstr (Hashbytes ('MD5', 'texto') Reemplazo en Sparksql -- sql-server campo con apache-spark-sql camp Relacionados El problema

master.dbo.fn_varbintohexstr(HashBytes('MD5','text') replacement in SparkSQL


0
vote

problema

Español

Tengo un código en SQL para generar una identificación sólida combinando más columnas de la tabla de origen.

  ContructorInfo.Invoke(new object[] { ... })5  

¿Hay algún reemplazo en Sparksql devuelve los mismos resultados?

He intentado con

  ContructorInfo.Invoke(new object[] { ... })6  

Pero esto no está devolviendo el código en forma hexadecimal.

Original en ingles

I have a code in SQL to generate strong ID by combining more columns from source table.

master.dbo.fn_varbintohexstr(HashBytes('MD5','test')) 

Is there any replacement in SparkSQl returns the same results?

I have tried with

hex(md5('test'))  

but this is not returning code in hexadecimal form.

     
   
   

Lista de respuestas


Relacionados problema

1  Generar columna de identificación determinista en la chispa  ( Generate deterministic id column on spark ) 
Yo uso la función de la ventana de la chispa row_number() Para generar una identificación para un contexto complejo con estructuras anidadas. Posteriormente...

3  ¿Cómo es el esquema / datos de recuperación / sqlcontext?  ( How is spark hivecontext sqlcontext retrieving schema data ) 
Parece que no puedo encontrar mucha documentación en ella, pero cuando tire los datos de la colmena en Spark SQL, ¿cómo está recuperando el esquema, es automá...

1  Pyspark DataFrame - Force ansia en caché de datos de datos - Tomar (1) VS Count ()  ( Pyspark dataframe force eager dataframe cache take1 vs count ) 
Uno de los enfoques para forzar el almacenamiento en caché / persistencia está llamando a una acción después del caché / persistente, por ejemplo: df.cache...

0  Expresión de registro de chispa para SQL DSL  ( Spark register expression for sql dsl ) 
¿Cómo puedo acceder a una expresión de catalizador (no regular UDF) en SPARK SQL SCALA DSL API? http://geospark.datasyslab.org Solo permite la ejecución b...

-1  Cómo mantener el orden de los datos al seleccionar los valores distintos de la columna del conjunto de datos  ( How to maintain the order of the data while selecting the distinct values of col ) 
Tengo un conjunto de datos como abajo, datetime24 Necesito seleccionar los valores distintos del COL1 y mi conjunto de datos resultante debe tener el pe...

1  Reemplazo de los valores de la columna del conjunto de datos de la chispa al azar de un conjunto  ( Replacing spark dataset column values randomly from a set ) 
Tener un DataSet imputadoCsv, donde quiero reemplazar al azar los valores nulos en la columna de género, digamos hombres o mujeres. imputedcsv.groupBy("Gen...

1  Pyspark equivalente a PANDAS READ_SQL_QUERY  ( Pyspark equivalent of pandas read sql query ) 
Estoy tratando de cambiar de Pandas a Pyspark y, por lo general, cuando hice mi análisis, usé pd.read_sql_query para leer los datos necesarios para el análi...

3  Fusionar múltiples entradas individuales a una entrada única en la guía de datos de Spark  ( Merge multiple individual entries to single entry in spark dataframe ) 
asume que tengo una partición que se parece a esto part1: {"customerId":"1","name":"a"} {"customerId":"2","name":"b"} asumir que me gustaría cambiar e...

3  Codificadores de Spark Java - CAMPOS DE CAMBIO EN LALISTAS DE COLECCIÓN  ( Spark java encoders switch fields on collectaslist ) 
Tengo el siguiente esquema en un conjunto de datos - root |-- userId: string (nullable = true) |-- data: map (nullable = true) | |-- key: string | ...

25  Recapacitación / Datos de giro en Spark RDD y / o Spark DataFrames  ( Reshaping pivoting data in spark rdd and or spark dataframes ) 
Tengo algunos datos en el siguiente formato (ya sea RDD o Spark DataFrame): from pyspark.sql import SQLContext sqlContext = SQLContext(sc) rdd = sc.paral...




© 2022 respuesta.top Reservados todos los derechos. Centro de preguntas y respuestas reservados todos los derechos