- プロンプト実行例
- プロンプトを見る
指示を基ににコードを生成します。
どんなデータ?
どんな処理がしたい?
行うコードを示します。Pandasを使用してデを読み込んでから、データの基本的な統計量を見て、さらにscikit-learnを使用してデータを前処理およびモデル構築に用いる準備を行います。
Python1import pandas as pd 2from sklearn.model_selection import train_test_split 3from sklearn.preprocessing import StandardScaler 4from sklearn.linear_model import LogisticRegression 5from sklearn.metrics import accuracy_score 6 7# データの読み込み 8data = pd.read_csv('iris.csv') 9 10# データの基本的な統計量の確認 11print(data.head()) # 最初の数行を表示 12print(data.describe()) # 基本統計量を表示 13 14# 特徴量とターゲットを分割 15X = data.drop('species', axis=1) 16y = data['species'] 17 18# 訓練データとテストデータに分割 19X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) 20 21# データのスケーリング 22scaler = StandardScaler() 23X_train = scaler.fit_transform(X_train) 24X_test = scaler.transform(X_test) 25 26# ロジスティック回帰モデルの構築と評価 27model = LogisticRegression() 28model.fit(X_train, y_train) 29predictions = model.predict(X_test) 30accuracy = accuracy_score(y_test, predictions) 31print('Accuracy:', accuracy)
このコードでは、Pandasを使用してcsvファイルを読み込み、データの基本統計量を確認しています。そして、scikit-learnを使用してデータを前処理し、ロジスティック回帰モデルを構築しています。最後に、テストデータでモデルを評価しています。
各特徴量の平均や中央値、最大値などを出して。
以下のコードを使用して、各特徴量ごとの平均、中央値、最大値などの基本統計量を出力できます。
Python1# 各特徴量の平均、中央値、最大値などの基本統計量を出力 2feature_stats = data.describe() 3print(feature_stats)
このコードを実行すると、data データフレームの各特徴量ごとの平均、中央値、最大値などの基本統計量が表示されます。
コメント 0
他のプロンプトもチェック
GPTs
プロンプト生成
ImageFXでGoogleポリシーや規約に違反して弾かれたプロンプトを分析し、どのワードが違反している可能性が高いかをお伝えし、プロンプトを修正して提出してくれるGPTsを作ったのでImageFXでなかなか画像を生成して貰えない人はご活用ください😊 #ImageFX #GPTs #画像生成AI20234950GPTs
要件定義・設計
プロンプトが意図どうりに動作するかを確認するためのテストケースを生成します。 プロンプトを作ったら、それがちゃんと動くか何度かテストは行うと思いますが、多くの場合はそのテストは恣意的でぬけもれがあって、あとで修正することが多いものです。 このプロンプトテストケースジェネレーターは、そのプロンプトの意図を分析して、必要なテストケースを洗い出します。 あなたのプロンプトとその意図を入力すると、そのプロンプトの意図に従って、テストケースを複数出力します。 テストケースは、入力値と確認内容です。 意図は入力しなくても、プロンプトから分析しますが、入力したほうがより正確なテスト生成できます。 テストケースを見るだけで、機能的にたりないものや、こうしたいという方向性を発見するきっかけになることもあります。5028152