#python
--sql
[]( "Commande à afficher sur cette page" python pandas numpy matplotlib Autre sql R )
[]( Comment écrire cette page
‘‘‘ python code commentaire ・ Écrivez tous les commentaires ici, pas dans le texte )
python
#python
df_used_method1_used_method2\
= df.copy()\
.used_method1()\
.used_method2()\
1.Description de la fonction elle-même
"""Écrivez une description ici"""
2.Import de bibliothèque
import pandas as pd
3.Spécification des variables
START_DATE = 20200527
4.main()Définition de la fonction utilisée dans
def func1(parameter1:str) -> pd.DataFrame:
5.main()Définition de
def main()
6.
if __name__ == "main":
main()
def func1(parameter_path:str, parameter_date:int, parameter_df:pd.DataFrame) -> pd.DataFrame:
"""
Ecrire une docstring
"""
#main()Cela semble nécessaire lors de la prise d'un argument dans
SQL
--sql
select
datamart1.column1
, datamart1.column2
, datamart2.column3
from
datamart1
left join
datamart2
on = column2
where
datamart1.column1 > 10
;
select
column1
, column2
, sum(column3)
, avg(column4)
from
datamart1
group by
column1
, column2
;
Règles SQL
#python
--sql
#python
--sql
#python
#Extrait au format série
df.loc[:,'column']
df['column']
df.column
#Extrait au format de trame de données
df.loc[:,['column1','column2']]
df[['column1','column2']]
--sql
select
column1
from
datamart
;
select
*
from
datamart
;
#python
df.head(10)
--sql
select top(10)
column1
from
datamart
;
select
column1
from
datamart
limit
10
;
#python
df.drop_duplicates()
--sql
select unique
*
from
datamart
;
#python
df_assign\
= df.copy()\
.assign(column = 10)
df['column'] = 10
--sql
select
10 as column1
from
dataframe
;
#python
df_query_loc\
= df.copy()\
.query('column1 == 10')\
.loc[:,['column1','column2']]
df[df.column1 == 10, ['column1','column2']]
--sql
select
column1
from
datamart1
where
column1 == 10
;
select
column1
, count(column1)
from
datamart1
group by
column1
having
count(column1) == 10
;
#python
df.rename(columns = {'column1':'new_column1','column2':'new_column2'})
pd.DataFrame(df.values, columns = ['new_column1','new_column2'])
df.columns = ['new_column1','new_column2']
df.columns = 'new_' + df.columns
--sql
select
column1 as new_column1
from
datamart1
;
#python
pd.merge(
df1,
df2,
on = ['column1','column2'],
how = 'left')
pd.merge(
df1,
df2,
left_on = ['column1','column2'],
right_on = ['column3','column4'],
how = 'left')
df1.merge(
df2,
on = 'column1',
how = 'left')
--sql
select
datamart1.column1
, datamart1.column2
, datamart2.column3
from
datamart1
left join
datamart2
on = column2
#python_pandas
#Verticale
pd.concat([df1,df2],axis=0)
df1.append(df2)
#côté
pd.concat([df1,df2],axis=1)
#python_numpy
#Verticale
np.concatenate([nparray1,nparray2], axis=0)
#côté
np.concatenate([nparray1,nparray2], axis=1)
--sql
select
column1
from
datamart1
union -- union all / intersect / except
select
column2
from
datamart2
#python
len(df)
--sql
select
count(*)
from
datamart1
;
#python
#Contrôle de forme
np.array().shape
#python
df.sort_values()
--sql
select
*
from
datamart1
order by
column1
#python
--sql
#python
#Générer nparray avec toutes les mêmes valeurs
#Exemple, 3D
np.tile(Nombres, (n, n, n))
[i for i in range(100)]
#Lors de l'utilisation de l'instruction if
[i for i in range(100) if i > 50]
#python
df\
.groupby(['column1','column2'])\
.agg({'column3':'sum',
'column4':'mean'})\
.reset_index()
-- sql
select
column1
, column2
, sum(column3)
, avg(column4)
from
datamart1
group by
column1
, column2
;
df_tmp\
.groupby('column1')\
.agg({'column2':'nunique'})
df_tmp\
.groupby('column1')\
.agg({'column2':['sum', 'min', 'max']})
#python
#moyenne
np.average(nparray, axis = n)
#Pour les données de deux dimensions ou plus, le résultat dépend de la dimension moyenne.
np.array().mean()
#division
np.array(nparray1, nparray2)
#Obtenir au format liste
str_data.split('Chaîne spécifique')
str_data[-n]
str_data[:-n]
str_data.find('Chaîne de caractères à rechercher')
#Si la chaîne est incluse"1"Si non inclus"-1"
#python
import cv2
cv2.imread('filename.png')
#python
import PIL
PIL.image.open('filename.png')
#python
cv2.imshow("image_name", cv2.imread('filename.png'))
#"image_name"Est éventuellement défini
#python
PIL.image.open('filename.png').show()
#python
#Conversion de données d'image np
image = PIL.image.open('filename.png')
np.array(image)
#python
np.array(image)[Pixel supérieur:Pixel inférieur,Pixel gauche:Pixel droit]
#python
#Ajouter un carré
plt.figure()
plt.grid(false)
cv2.rectangle(np.array(image), (Pixel droit,Pixel supérieur), (Pixel gauche,Pixel inférieur), (255, 255, 255), 4)
plt.imshow(np.array(image),cmap='gray',vmin=0,vmax=65555)
signal.convolve2D
#Changer le nombre d'images à extraire avec le dernier numéro
Image.open('~.tif').seek(0)
#python
plt.figure(figsize = (6,4))
#python
plt.x_lim([droite,la gauche])
plt.y_lim([Vers le haut,en dessous de])
#python
aspect = (ax.get_x_lim()[1] - ax.get_xlim()[1]) / (ax.get_y_lim()[1] - ax.get_y_lim()[0])
ax.set_aspect(aspect)
#python
fig.patch.set_alpha(0)
#Seule la figue est prise en charge
#python
#Ne pas afficher les lignes de quadrillage
#python
#Utiliser 1, sous-tracé
plt.subplot(Verticale,côté,1)
plt.plot(~)
plt.subplot(Verticale,côté,2)
plt.plot(~)
↓
plt.subplot(Verticale,côté,Verticale×côté)
plt.show(~)
#2、add_Utilisez le sous-tracé,
ax1 = plt.figure().add_subplot(Verticale,côté,1)
ax1 = plot(~)
↓
plt.show()
#Utiliser 3, sous-parcelles
fig, axes = plt.subplots(~, figsize=(6,4)) #fig, n'est pas utilisé
axes[1].plot
#python
#Processus à l'aide de la bibliothèque
#python
import time
#Début du traitement
time_start = time.time()
#Fin de traitement
time_end = time.time()
print(time_end-time_start)
import datetime
from dateutil.relativedelta import relativedelta
date_datetime = datetime.datetime.strptime('2020-05-24', '%Y-%m-%d')
import datetime
from dateutil.relativedelta import relativedelta
datetime.datetime.strftime(date_datetime, '%Y-%m-%d')
date_datetime + datetime.timedelta(days=7)
date_datetime + relativedelta(weeks = 1)
datetime.weekday(date_datetime)
#python
#annuaire"src"Lisez la fonction dans le fichier suivant
import sys
sys.path.append('src/')
from filename.py import func_name
#python
import pathlib
filepath = r'chemin_nom de fichier.csv'
read_file = pathlib.WindowPath()
import glob
glob.glob('path/*')
import os
if os.path.exists(path_name) == False
os.makedirs(path_name)
#python_pandas
#Lire df
pd.DataFrame(data,columns=[column1,column2])
pd.read_csv('filename')
#python_numpy
#Chargement de npz
np.load(filename)
#python_pandas
#Lire df
pd.DataFrame().to_csv('filename', index=False)
#python_numpy
#Enregistrer npz
np.savez(pathname, filename1 = np.array('1'), filename2 = np.array('2'))
#python_matplotlib
#Enregistrer l'image
plt.savefig('filename')
#python_sklearn
#Enregistrer le modèle
import sklearn
import pickle
reg = sklearn.LinearRegression().fit(x,y)
with open('filename.pickle', mode = 'wb', as f
pickle.dump(reg, f)
#zip
for i_column1, i_column2 in zip(df_tmp.column1, df_tmp.column2):
#itertools
for i,j in
permutations(i,j):permutation
combinations(i,j):combinaison
products(i,j):Produit direct
for i in enumerate(df_tmp.column):
#def, utiliser
def_func_name(parameter1, parameter2):
En traitement
return Valeur de retour
#Utilisez lambda,
lambda parameter:Formule de retour(parameter)
#Utilisez lambda,_Exprimé en une ligne
(lambda parameter:Formule de retour(parameter))(parameter_instance)