پیشپردازش متن چیست؟
پیشپردازش متن (Text Preprocessing) فرآیندی است که متن ورودی خام و قابل خواندن برای انسان را به یک قالب قابل پردازش برای رایانهها تبدیل میکند. در این فرآیند، متن ورودی با استفاده از ابزارهای مختلف و با هدف بهبود دقت و کیفیت پردازش، بهصورتی پردازش میشود که برای ماشین قابل فهم است. برخی از فعالیتهای مهم در حوزه پیشپردازش متن بهشرح زیر هستند:
- حذف علائم نگارشی: علائم نگارشی مانند نقطه، ویرگول، خط تیره و غیره برای ماشینها بیمعنی هستند و در پردازش متن ممکن است باعث ابهام و خطا شوند. بنابراین، در این مرحله این علائم از متن حذف میشوند.
- تبدیل کلمات به حالت اصلی: در این مرحله، کلمات به حالت اصلی خود تبدیل میشوند. بهعنوان مثال، کلمه running به run تبدیل میشود و کلمه dogs به dog.
- حذف کلمات توقف: کلمات توقف، کلماتی هستند که در پردازش متن معمولا بهدلیل عدم ارائه اطلاعات مفید برای پردازش، حذف میشوند. برخی از مثالهای شاخص کلمات توقف the، of، and، a و an هستند.
- استخراج کلمات کلیدی: در این مرحله، کلمات کلیدی یا اصطلاحات مورد نظر استخراج میشوند. این کلمات میتوانند در تحلیل و پردازش متن مفید باشند.
- تبدیل حروف به حروف کوچک: در این مرحله، تمام حروف متن به حروف کوچک تبدیل میشوند. این کار باعث میشود که ماشین در خواندن و تشخیص کلماتی که دارای حروف بزرگ و کوچک هستند با مشکل روبهرو نشود.
در مجموع، پیشپردازش متن یکی از مهمترین مراحل در پردازش زبان طبیعی است. با استفاده از این فرآیند، متن ورودی بهصورتی پردازش میشود که برای ماشین قابل فهم است و اطلاعات مورد نیاز برای پردازش و استخراج دادهها را تامین میکند.
چگونه پیشپردازش متن را در پایتون کدنویسی کنیم؟
در پایتون، میتوان از کتابخانههای پردازش زبان طبیعی برای انجام پیشپردازش متن استفاده کرد. کتابخانههای مختلفی برای پیشپردازش متن در پایتون وجود دارند که NLTK و spaCy دو مورد مهم در این زمینه هستند که قصد داریم در این مقاله از آنها استفاده کنیم.
استفاده از کتابخانه NLTK
ابتدا، برای استفاده از کتابخانه NLTK باید آنرا نصب کنیم.
!pip install nltk
سپس، برای پیشپردازش متن، میتوانید از توابع مختلف آن استفاده کنید. بهعنوان مثال، برای تبدیل کلمات به حالت اصلی، میتوانید از تابع WordNetLemmatizer استفاده کنید:
import nltk
from nltk.stem import WordNetLemmatizer
from nltk.corpus import stopwords
nltk.download(‘wordnet’)
nltk.download(‘stopwords’)
# تعریف شیء WordNetLemmatizer برای تبدیل کلمات به حالت اصلی
lemmatizer = WordNetLemmatizer()
# حذف کلمات توقف
stop_words = set(stopwords.words(‘english’))
def preprocess_text(text):
# تبدیل حروف متن به حروف کوچک
text = text.lower()
# حذف علائم نگارشی
text = re.sub(r’\W’, ‘ ‘, text)
# تبدیل کلمات به حالت اصلی
text = ‘ ‘.join([lemmatizer.lemmatize(word) for word in text.split()])
# حذف کلمات توقف
text = ‘ ‘.join([word for word in text.split() if word not in stop_words])
return text
استفاده از کتابخانه spaCy
ابتدا، برای استفاده از کتابخانه spaCy، آن را نصب کنید:
!pip install spacy
سپس برای پیشپردازش متن، میتوانید از توابع مختلف آن استفاده کنید. بهعنوان مثال، برای حذف علائم نگارشی و تبدیل کلمات به حالت اصلی میتوانید از توابع مختلف spaCy استفاده کنید:
import spacy
# لود مدل زبانی
nlp = spacy.load(“en_core_web_sm”)
def preprocess_text(text):
# تبدیل حروف متن به حروف کوچک
text = text.lower()
# حذف علائم نگارشی و تبدیل کلمات به حالت اصلی
doc = nlp(text)
text = ‘ ‘.join([token.lemma_ for token in doc if not token.is_punct])
return text
در مجموع، برای پیشپردازش متن در پایتون، میتوانید از کتابخانههای مختلفی مانند NLTK و spaCy استفاده کنید و با استفاده از توابع مختلف این کتابخانهها، متن ورودی را بهصورتی پردازش کنید که برای ماشین قابل فهم است.
پیشپردازش در چه زمینههایی مورد استفاده قرار میگیرد و چه الگوریتمهایی برای این منظور در دسترس است؟
پیشپردازش متن بهشکل گستردهای در زمینههای مختلف مورد استفاده قرار میگیرد که برخی از آنها بهشرح زیر است:
- تحلیل احساسات: در تحلیل احساسات، میتوان با استفاده از پیشپردازش متن، متن ورودی را بهشکلی پردازش کرد که برای الگوریتمهای تحلیل احساسات قابل استفاده باشد. برای مثال، میتوان با حذف کلمات توقف و تبدیل کلمات به حالت اصلی، متن را بهشکلی پردازش کرد که برای الگوریتمهای تحلیل احساسات بهتر قابل استفاده باشد.
- الگوریتمهای برداری: در این الگوریتمها از تکنیکهایی مانند TF-IDF و word embeddings برای تبدیل کلمات به بردارهای عددی استفاده میشود. این بردارهای عددی برای آموزش مدلهای تحلیل احساسات مانند رگرسیون لجستیک و شبکههای عصبی استفاده میشوند.
- الگوریتمهای مبتنی بر لغتنامه: در این الگوریتمها از لغتنامههایی مانند SentiWordNet و VADER برای تحلیل احساسات در متن استفاده میشود. این لغتنامهها به هر کلمهای امتیاز مثبت، منفی یا خنثا میدهند. با توجه به امتیاز کلمات، امتیاز کلی متن برای تحلیل احساسات محاسبه میشود.
- بازیابی اطلاعات: در بازیابی اطلاعات، میتوان با استفاده از پیشپردازش متن، متن ورودی را بهشکلی پردازش کرد که برای الگوریتمهای بازیابی اطلاعات قابل استفاده باشد. برای مثال، میتوان با حذف علائم نگارشی و تبدیل کلمات به حالت اصلی، متن را بهشکلی پردازش کرد که برای الگوریتمهای بازیابی اطلاعات بهتر قابل استفاده باشد.
اکنون که برخی از کاربردهای مهم پیشپردازش متن را مورد بررسی قرار دادیم، اجازه دهید به معرفی الگوریتمهای مهم در این زمینه بپردازیم.
الگوریتمهای برداری
در این الگوریتمها، از تکنیکهایی مانند TF-IDF و BM25 برای تبدیل کلمات به بردارهای عددی استفاده میشود. سپس، با استفاده از معیارهایی مانند cosine similarity و Jaccard similarity میتوان میزان شباهت بین متن ورودی و متنهای موجود در پایگاه داده را محاسبه کرد.
الگوریتمهای مبتنی بر قواعد
در این الگوریتمها از قواعد و فیلترهایی برای جستوجو در پایگاه داده استفاده میشود. این قواعد ممکن است شامل محدودیتهایی مانند تعداد حروف، تعداد کلمات یا حضور کلمات خاص در متن باشند.
الگوریتمهای مبتنی بر مدلهای زبانی
این الگوریتمها از مدلهای زبانی مبتنی بر شبکههای عصبی برای بازیابی اطلاعات استفاده میکنند. این مدلها با استفاده از دادههای آموزشی بزرگ، میتوانند بهصورت خودکار و بدون نیاز به تعریف قواعد و محدودیتهای دستی، به بهترین شکل ممکن از دادهها استفاده کنند. مدلهایی مانند برت (BER)، جیپیتی (GPT) و Transformer بهشکل گستردهای در این زمینه مورد استفاده قرار میگیرند.
الگوریتمهای مبتنی بر فضای برداری چند بعدی
این الگوریتمها بهعنوان یک روش متداول برای بازیابی اطلاعات در موتورهای جستوجو استفاده میشوند. در این الگوریتمها، هر سند و کوئری به یک بردار چندبعدی تبدیل میشود و سپس با استفاده از معیارهایی مانند cosine similarity و Jaccard similarityمیزان شباهت بین سند و کوئری محاسبه میشود. الگوریتمهای مطرح در این زمینه LSI، LDA و Word2Vec هستند.
الگوریتمهای مبتنی بر شباهت احتمالی
این الگوریتمها برای تشخیص شباهت بین سند و کوئری از معیارهایی مانند شباهت کسینوسی، شباهت ضریب ژاکار و توزیع مشترک کلمات استفاده میکنند. الگوریتمهای شاخص این حوزه Okapi BM25،TF-IDF و مدلهای مبتنی بر احتمال هستند.
الگوریتمهای مبتنی بر روشهای یادگیری نظارتی
این الگوریتمها با استفاده از مجموعهای از دادههای آموزشی و تکنیکهای یادگیری نظارتی مانند شبکههای عصبی، مدلهای رگرسیون و SVM بهصورت خودکار، مدلهایی را آموزش میدهند که بتوانند به بهترین شکل ممکن از دادهها استفاده کنند. الگوریتمهای مطرح در این زمینه RankNet، LambdaRank و ListNet هستند.
الگوریتمهای تبدیل کلمات
در این الگوریتمها، از تکنیکهایی مانند stemming و lemmatization برای تبدیل کلمات به حالت اصلی استفاده میشود. این الگوریتمها به کاهش تعداد کلمات موجود در متن و افزایش یکنواختی آن کمک میکنند.
الگوریتمهای تحلیل و پردازش ساختار جملات
در این الگوریتمها، از تکنیکهایی مانند شناسایی نقش کلمات در جمله (مانند شناسایی فاعل، مفعول و غیره) و تحلیل دستور زبان برای پردازش ساختار جملات استفاده میشود.
الگوریتمهای تحلیل احساسات
در این الگوریتمها، از تکنیکهایی مانند محاسبه امتیاز کلی متن با استفاده از لغتنامههای تحلیل احساسات و تشخیص جملات مثبت، منفی و خنثا استفاده میشود. در کل، پیشپردازش متن یکی از مهمترین مراحل در پردازش زبان طبیعی و دادهکاوی است. با استفاده از این فرآیند، متن ورودی را بهشکلی پردازش میکنیم که برای الگوریتمهای پردازش زبان طبیعی و دادهکاوی قابل استفاده باشد.
عبارات منظم در پردازش زبان طبیعی چیستند؟
عبارات منظم (Regular Expressions) در حوزه پردازش زبان طبیعی، یکی از ابزارهای مهم برای پردازش و جستوجوی الگوهای متنی هستند. عبارت منظم یک الگوی متنی است که با استفاده از یک سری قواعد، توصیف میشود. این قواعد میتوانند شامل کاراکترها، علامتها و عبارات کلیدی باشند که بهصورت خاص، الگوی مورد نظر را تشکیل میدهند.
با استفاده از عبارات منظم، میتوان بهسادگی الگوهای مختلفی را در متنها پیدا کرد. بهعنوان مثال، با استفاده از عبارات منظم میتوان در متنها به دنبال کلمات، عبارات، اعداد، ایمیلها، آدرسها و غیره جستوجو کرد و آنها را استخراج کرد. همچنین، از عبارات منظم میتوان برای مرتبسازی و تمیز کردن دادهها استفاده کرد.
عبارات منظم بهصورت گسترده در زمینههای مختلفی مانند جستوجوی متن، پردازش زبان طبیعی، تحلیلکلان دادهها و غیره استفاده میشوند. بهعنوان مثال، در پردازش زبان طبیعی، عبارات منظم برای تحلیل متنها بهکار میروند و با استفاده از آنها میتوان به دنبال الگوهای خاص مانند شماره تلفن، تاریخ، زمان و غیره گشت.
چگونه میتوانیم عبارات منظم را در پردازش زبان طبیعی استفاده کنیم؟
عبارات منظم یا عبارات با قالب ثابت، در پردازش زبان طبیعی بهعنوان یکی از ابزارهای مفید برای تشخیص الگوهای خاص در متون استفاده میشوند. برای استفاده از عبارات منظم در پردازش زبان طبیعی، میتوانید از کتابخانههایی مانند re در پایتون استفاده کنید. این کتابخانه به شما امکان پردازش عبارات منظم را در پایتون میدهد. برای استفاده از کتابخانه re ابتدا باید آنرا در کد پایتون خود وارد کنید.
import re
سپس، میتوانید با استفاده از توابع مختلف کتابخانه re، عبارات منظم را تجزیهوتحلیل کنید. بهطور کلی، برای استفاده از عبارات منظم، ابتدا باید الگوی مورد نظر خود را با استفاده از کاراکترهای خاصی که در عبارات منظم وجود دارند، تعریف کنید. سپس، با استفاده از توابع مختلفی که در کتابخانه re وجود دارد، میتوانید بهسادگی با الگوی تعریفشده، رشتههای مختلف را جستوجو و استخراج کنید.
برای مثال، فرض کنید میخواهید در یک متن به دنبال تمامی شمارههای تلفن موجود بگردید. برای این کار میتوانید از الگوی زیر استفاده کنید:
pattern = r’\d{3}-\d{3}-\d{4}’
در این الگو، \d برای نشان دادن هر عددی استفاده شده است و {3} به معنی این است که هر عدد باید سه بار تکرار شود. با استفاده از تابع re.findall میتوانید تمامی شمارههای تلفن موجود در متن را استخراج کنید:
text = “My phone number is 123-456-7890. Call me anytime!”
matches = re.findall(pattern, text)
print(matches)
# خروجی قطعه کد فوق به شرح زیر است:
[‘123-456-7890’]
همچنین، میتوانید از توابع دیگری مانند re.search و re.sub نیز برای جستوجوی الگوهای مختلف در متنها استفاده کنید.
یک مثال استفاده از عبارات منظم در زمینه شناسایی الگوهای پیچیده، تشخیص شماره تلفنهای موبایل است. شماره تلفنهای موبایل در بسیاری از کشورها دارای یک الگوی ثابت هستند که میتوان با استفاده از یک عبارت منظم آنها را شناسایی کرد. بهعنوان مثال، برای تشخیص شماره تلفنهای موبایل در ایران، میتوان از عبارت منظم زیر استفاده کرد:
import re
text = “شماره تلفن فرضی من: ۰۹۱۲۳۴۵۶۷۸۹"
pattern = r'\d{11}|\d{10}|\d{9}'
match = re.findall(pattern, text)
print(match)
در این مثال، ابتدا کتابخانه re را به پروژه وارد کردیم. سپس، یک متن شامل یک شماره تلفن موبایل را تعریف کردهایم. سپس، با استفاده از عبارت منظم r’\d{11}|\d{10}|\d{9}›، که به معنی یافتن یک عدد ۹ رقمی یا ۱۰ رقمی یا ۱۱ رقمی است، تمامی شمارههای تلفن موبایل در متن را پیدا کردهایم و در متغیر match ذخیره کردهایم. سپس، با استفاده از تابع print، لیستی از تمامی شمارههای تلفن موبایل در متن را چاپ کردهایم. این مثال نشان میدهد که با استفاده از عبارات منظم، میتوان الگوهای پیچیده را در متون پیدا کرد و اطلاعات مورد نظر خود را با دقت بیشتری استخراج کرد.
عبارات با قاعده در چه زمینههایی استفاده میشود و چه الگوریتمهایی برای این منظور قابل استفاده هستند؟
عبارات با قاعده یا عبارات منظم در بسیاری از زمینههای پردازش زبان طبیعی مورد استفاده قرار میگیرند. برخی از کاربردهای عبارات منظم بهشرح زیر هستند:
1. تشخیص الگوهای مربوط به شماره تلفن، آدرس ایمیل، آدرس وب، کدپستی و غیره.
2. جستوجوی الگوهای خاص در متون، مانند تشخیص عبارات تکراری، تاریخها، زمانها، ارقام و مقادیر ارزی.
3. تبدیل متون به قالبهای استاندارد، مانند تبدیل تاریخ به قالب YYYY-MM-DD یا تبدیل شماره تلفن به قالب مشخص.
4. پردازش و تمیز کردن متون، مانند حذف کاراکترهای نامربوط، حذف فاصلههای اضافی و غیره.
امروزه الگوریتمهای مختلفی برای پردازش عبارات منظم وجود دارند که برخی از الگوریتمهای مهم و پرکاربرد بهشرح زیر هستند:
1. الگوریتم Non-deterministic Finite Automaton
الگوریتم NFA سرنام Non-deterministic Finite Automaton، یکی از الگوریتمهای پرکاربرد پردازش عبارات منظم است. این الگوریتم برای شناسایی الگوهای منظم و استخراج آنها از متون استفاده میشود. NFA شامل یک مجموعه حالتها، یک مجموعه حروف ورودی (یا الفبا)، یک تابع انتقال حالت (transition function) و حالتهای شروع و پایان است. در NFA، یک حالت غیرقطعی وجود دارد و ممکن است یک حالت موجود در آن، به چند حالت مختلف منتهی شود.
برای شناسایی الگوهای منظم با استفاده از الگوریتم NFA، ابتدا الگوی دادهشده به یک NFA تبدیل میشود. سپس، الگوی موردنظر روی رشته ورودی اعمال میشود و در هر مرحله، با توجه به حرف ورودی و حالت فعلی به یک حالت جدید در NFA تبدیل میشود. در پایان، اگر در یکی از حالتهای پایانی NFA باشیم، الگو در رشته ورودی پیدا شده است. مزیت اصلی استفاده از NFA این است که این الگوریتم قابلیت پردازش الگوهای بازگشتی و پیچیده را دارد. با این حال، این الگوریتم نسبت به DFA کندتر است و بهدلیل وجود حالتهای غیرقطعی، برای برخی مسائل ممکن است نتایج نادرستی تولید کند. در کل، الگوریتم NFA یک الگوریتم قدرتمند برای پردازش عبارات منظم است که برای شناسایی الگوهای پیچیده و بازگشتی مناسب است.
2. الگوریتم Deterministic Finite Automaton
الگوریتم DFA سرنام Deterministic Finite Automaton، یکی دیگر از الگوریتمهای مورد استفاده در پردازش عبارات منظم است. این الگوریتم برای شناسایی الگوهای منظم و استخراج آنها از متون استفاده میشود. یک DFA شامل یک مجموعه حالتها، یک مجموعه حروف ورودی (یا الفبا)، یک تابع انتقال حالت(transition function) و حالتهای شروع و پایان است. در یک DFA، یک حالت قطعی وجود دارد که در هر مرحله به یک حالت خاص منتهی میشود.
برای شناسایی الگوهای منظم با استفاده از الگوریتم DFA، ابتدا الگوی دادهشده به یک DFA تبدیل میشود. سپس، روی رشته ورودی اعمال میشود و در هر مرحله، با توجه به حرف ورودی و حالت فعلی به یک حالت جدید در DFA منتقل میشود. در پایان، اگر در یکی از حالتهای پایانی DFA باشیم، الگو در رشته ورودی پیدا شده است.
مزیت اصلی استفاده از DFA این است که این الگوریتم برای پردازش الگوهای ساده و محدود مناسب است و عملکرد بهتری نسبت به NFA دارد. با این حال، DFA نمیتواند الگوهای بازگشتی و پیچیده را شناسایی کند و برای پردازش این نوع الگوها باید از NFA استفاده کرد. در کل، الگوریتم DFA یک الگوریتم سریع و موثر برای پردازش الگوهای ساده و محدود است که معمولا برای شناسایی الگوهای بدون بازگشت و با پیچیدگی کم استفاده میشود.
3. الگوریتم تجزیهکننده (Parser Algorithm)
الگوریتم تجزیهکننده (Parsing Algorithm) یکی از الگوریتمهای مورد استفاده در پردازش عبارات منظم است. این الگوریتم برای تجزیهوتحلیل یک رشته به عناصر سازنده استفاده میشود. در الگوریتم تجزیهکننده، رشته ورودی به عناصر سازنده تقسیم میشود و سپس درختی از عناصر سازنده بهدست میآید. این درخت معمولا بهعنوان درخت تجزیه (Parse Tree) شناخته میشود و میتواند بهعنوان یک نمایش ساختاری از رشته ورودی استفاده شود. برای تجزیه یک رشته به عناصر سازنده، ابتدا یک گرامر مناسب برای آن رشته تعریف میشود. سپس از روشهای مختلفی برای تجزیه رشته استفاده میشود. برخی از روشهای مورد استفاده در الگوریتم تجزیهکننده عبارتند از:
1. روش تجزیه بازگشتی (Recursive Descent Parsing): در این روش، یک تابع بازگشتی برای هر قاعده در گرامر تعریف میشود. این تابع با استفاده از گرامر، رشته ورودی را به عناصر سازنده تجزیه میکند.
2. روش تجزیه با استفاده از جدول جستوجو (Table-Driven Parsing): در این روش، یک جدول جستوجو برای گرامر تعریف میشود. این جدول شامل روابط بین عناصر گرامر و عملیاتهای تجزیه است. با استفاده از این جدول، رشته ورودی به عناصر سازنده تجزیه میشود.
3. روش تجزیه خودکار رسمی (Formal Automaton Parsing): در این روش، یک قاعده رسمی برای گرامر تعریف میشود. این قاعده شامل حالتهای مختلفی است که در هر مرحله با استفاده از حروف ورودی اجازه میدهد به یک حالت جدید برسیم. با استفاده از الگوی فوق، رشته ورودی به عناصر سازنده تجزیه میشود. در کل، الگوریتم تجزیهکننده، یک الگوریتم قدرتمند برای تجزیهوتحلیل رشتههای متنی است که برای پردازش عبارات منظم مورد استفاده قرار میگیرد.
4. الگوریتم تطبیق الگو (Pattern Matching Algorithm): الگوریتم تطبیق الگو (Pattern Matching Algorithm) یکی از الگوریتمهای مورد استفاده در پردازش عبارات منظم است. این الگوریتم برای جستوجوی الگوهای منظم در رشتههای متنی استفاده میشود. در الگوریتم تطبیق الگو، ابتدا الگوی دادهشده به یکی از الگوریتمهای پردازش عبارات منظم مانند NFA یا DFA تبدیل میشود. سپس، روی رشته ورودی اعمال میشود و در هر مرحله، با توجه به ورودی و حالت فعلی به یک حالت جدید در NFA یا DFA میرسد. در پایان، اگر در یکی از حالتهای پایانی NFA یا DFA باشیم، الگو در رشته ورودی پیدا شده است. در الگوریتم تطبیق الگو، میتوان از روشهای مختلفی برای جستوجوی الگوها استفاده کرد. برخی از روشهای مورد استفاده در الگوریتم تطبیق الگو عبارتند از:
1. روش تطبیق الگوی خاموش (Silent Pattern Matching): در این روش، الگو در رشته ورودی جستوجو میشود و در صورت پیدا شدن الگو، مکان آن در رشته ورودی برگردانده میشود.
2. روش تطبیق الگوی بازگشتی (Recursive Pattern Matching): در این روش، الگو بهصورت بازگشتی در رشته ورودی جستوجو میشود. برای این کار، الگو به چند زیر الگو تقسیم میشود و سپس برای هر زیر الگو، جستوجوی بازگشتی در رشته ورودی انجام میشود.
3. روش تطبیق الگو با استفاده از الگوریتم Aho-Corasick: الگوریتم Aho-Corasick یک الگوریتم تطبیق الگوی پیچیده و قدرتمند است. در این روش، الگوهای مختلف به یک درخت پیشوندی (Trie) اضافه میشوند و سپس با استفاده از این درخت، جستوجوی الگو انجام میشود.
در کل، الگوریتم تطبیق الگو یک الگوریتم قدرتمند برای جستوجوی الگوهای منظم در رشتههای متنی است. با استفاده از این الگوریتم، میتوان الگوهای پیچیده و بازگشتی را با سرعت و دقت بالا در رشتههای ورودی پیدا کرد.
بهطور کلی، هر کدام از این الگوریتمها برای مسائل خاصی مناسب هستند. انتخاب الگوریتم مناسب برای پردازش عبارات منظم به شما کمک میکند تا الگوهای خاصی را در متون پیدا کنید و اطلاعات مورد نظر خود را با دقت بیشتری استخراج کنید.
کلام آخر
همانگونه که مشاهده کردید، پیشپردازش متن و عبارات منظم نقش مهمی در پردازش زبان طبیعی دارند، بهطوری که متن ورودی را پیشپردازش کرده و اطلاعات مورد نیاز را استخراج کنند. این فرآیندها در بسیاری از پروژههای پردازش زبان طبیعی بسیار مهم هستند و بهبود عملکرد و دقت پردازش را بههمراه دارند .
ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را میتوانید از کتابخانههای عمومی سراسر کشور و نیز از دکههای روزنامهفروشی تهیه نمائید.
ثبت اشتراک نسخه کاغذی ماهنامه شبکه
ثبت اشتراک نسخه آنلاین
کتاب الکترونیک +Network راهنمای شبکهها
- برای دانلود تنها کتاب کامل ترجمه فارسی +Network اینجا کلیک کنید.
کتاب الکترونیک دوره مقدماتی آموزش پایتون
- اگر قصد یادگیری برنامهنویسی را دارید ولی هیچ پیشزمینهای ندارید اینجا کلیک کنید.
نظر شما چیست؟