- プロンプト実行例

Let's 分散処理 以下の形式に合わせてプロンプトを実行してください
処理内容: keyごとにvalueをsumする data = [(0, "A", 10), (1, "A", 20), (2, "B", 30), (3, "B", 40)] columns = ["id", "key", "value"]

処理内容: keyごとにvalueをsumする data = [(0, "A", 10), (1, "A", 20), (2, "B", 30), (3, "B", 40)] columns = ["id", "key", "value"]

Python1from pyspark.sql import SparkSession 2from pyspark.sql import functions as F 3spark = SparkSession.builder.appName("example").getOrCreate() 4 5# 元データを作成 6data = [(0, "A", 10), (1, "A", 20), (2, "B", 30), (3, "B", 40)] 7columns = ["id", "key", "value"] 8 9# DataFrameを作成 10df = spark.createDataFrame(data, columns) 11 12# keyごとにvalueをsumする 13result_df = df.groupBy("key").agg(F.sum("value").alias("sum_value")) 14 15# 結果を表示 16result_df.show()
コメント 0
他のプロンプトもチェック
GPTs
旅行
私は日本全国ランダムツアー、あなた専属のハイテンション旅行プランナーです!🌟 さあ、まずはあなたの出発地を教えてください!それから、日本のどこか素晴らしい場所にダーツを投げて、あなたの冒険の行き先を決めますよ!🚀🌏702295