mirror of
https://github.com/bvanroll/yahooBot.git
synced 2025-08-29 03:52:49 +00:00
conda shit is weird, and don't understand how tf works still
This commit is contained in:
44
AI/mk1/env.yml
Normal file
44
AI/mk1/env.yml
Normal file
@@ -0,0 +1,44 @@
|
||||
name: tensorflow
|
||||
channels:
|
||||
- defaults
|
||||
dependencies:
|
||||
- ca-certificates=2018.03.07=0
|
||||
- certifi=2018.10.15=py36_0
|
||||
- libedit=3.1.20170329=h6b74fdf_2
|
||||
- libffi=3.2.1=hd88cf55_4
|
||||
- libgcc-ng=8.2.0=hdf63c60_1
|
||||
- libstdcxx-ng=8.2.0=hdf63c60_1
|
||||
- ncurses=6.1=hf484d3e_0
|
||||
- openssl=1.1.1=h7b6447c_0
|
||||
- pip=18.1=py36_0
|
||||
- python=3.6.7=h0371630_0
|
||||
- readline=7.0=h7b6447c_5
|
||||
- setuptools=40.6.2=py36_0
|
||||
- sqlite=3.25.3=h7b6447c_0
|
||||
- tk=8.6.8=hbc83047_0
|
||||
- wheel=0.32.2=py36_0
|
||||
- xz=5.2.4=h14c3975_4
|
||||
- zlib=1.2.11=ha838bed_2
|
||||
- pip:
|
||||
- absl-py==0.6.1
|
||||
- astor==0.7.1
|
||||
- gast==0.2.0
|
||||
- grpcio==1.16.1
|
||||
- h5py==2.8.0
|
||||
- keras==2.2.4
|
||||
- keras-applications==1.0.6
|
||||
- keras-preprocessing==1.0.5
|
||||
- markdown==3.0.1
|
||||
- numpy==1.15.4
|
||||
- pandas==0.23.4
|
||||
- protobuf==3.6.1
|
||||
- python-dateutil==2.7.5
|
||||
- pytz==2018.7
|
||||
- pyyaml==3.13
|
||||
- scipy==1.1.0
|
||||
- six==1.11.0
|
||||
- tensorboard==1.12.0
|
||||
- tensorflow==1.12.0
|
||||
- termcolor==1.1.0
|
||||
- werkzeug==0.14.1
|
||||
prefix: /home/beppe/anaconda3/envs/tensorflow
|
31
AI/mk1/main.py
Normal file
31
AI/mk1/main.py
Normal file
@@ -0,0 +1,31 @@
|
||||
import numpy as np
|
||||
import pandas as pd
|
||||
from keras.models import Sequential
|
||||
from keras.layers import Dense
|
||||
from keras.layers import Dropout
|
||||
from keras.layers import LSTM
|
||||
from keras.utils import np_utils
|
||||
|
||||
|
||||
text=(open("temp.txt"))
|
||||
|
||||
|
||||
text = " ".join(text).lower()
|
||||
characters = sorted(list(set(text)))
|
||||
print(characters)
|
||||
n_to_char = {n:char for n, char in enumerate(characters)}
|
||||
char_to_n = {char:n for n, char in enumerate(characters)}
|
||||
|
||||
x = []
|
||||
|
||||
y = []
|
||||
|
||||
length = len(text)
|
||||
seq_length = 100 #batch size?
|
||||
for i in range(0,length-seq_length, 1):
|
||||
sequence = text[i:i+seq_length]
|
||||
label = text[i+seq_length]
|
||||
x.append([char_to_n[char] for char in sequence])
|
||||
y.append(char_to_n[label])
|
||||
|
||||
|
2
AI/mk1/readme.md
Normal file
2
AI/mk1/readme.md
Normal file
@@ -0,0 +1,2 @@
|
||||
going off of : https://www.youtube.com/watch?v=vq2nnJ4g6N0
|
||||
and: https://www.analyticsvidhya.com/blog/2018/03/text-generation-using-python-nlp/
|
3
AI/mk1/temp.txt
Normal file
3
AI/mk1/temp.txt
Normal file
@@ -0,0 +1,3 @@
|
||||
Het is al geruime tijd een bekend gegeven dat een lezer, tijdens het bekijken van de layout van een pagina, afgeleid wordt door de tekstuele inhoud. Het belangrijke punt van het gebruik van Lorem Ipsum is dat het uit een min of meer normale verdeling van letters bestaat, in tegenstelling tot "Hier uw tekst, hier uw tekst" wat het tot min of meer leesbaar nederlands maakt. Veel desktop publishing pakketten en web pagina editors gebruiken tegenwoordig Lorem Ipsum als hun standaard model tekst, en een zoekopdracht naar "lorem ipsum" ontsluit veel websites die nog in aanbouw zijn. Verscheidene versies hebben zich ontwikkeld in de loop van de jaren, soms per ongeluk soms expres (ingevoegde humor en dergelijke).
|
||||
|
||||
|
Reference in New Issue
Block a user