首个免费的AI辅助写代码工具,我用它分分钟写出一个爬虫!

AI2年前更新 forward_ding
390 00

说起AI代码工具,可能大家想到的是Github开发的GitHub Copilot,虽然它很强大,但它不是免费的,今天推荐一个免费的AI代码工具,叫Cursor

Cursor是基于GPT4通用人工智能模型接口开发的AI编程工具,它可以让用户通过简单的对话来与AI交互,并让AI生成或编辑代码。Cursor有两种模式:编辑模式和聊天模式。

首个免费的AI辅助写代码工具,我用它分分钟写出一个爬虫!

编辑模式

Ctrl+K进入编辑模式下,你可以输入一些自然语言或代码片段,然后按回车键,即可让AI生成或编辑一段代码。例如,可以输入“用python写一个二分查找算法”。等待几秒钟,他就给你写好了一段代码

首个免费的AI辅助写代码工具,我用它分分钟写出一个爬虫!

我们可以在控制台运行这段代码,可以看到,在数组[1, 3, 5, 7, 9]中寻找3,他准确的定位到了元素位置。

首个免费的AI辅助写代码工具,我用它分分钟写出一个爬虫!

现在的代码不支持用户输入我们选中要修改的代码,按下ctrl+k,输入提示词“我想通过控制台输入数字”,按下回车。

首个免费的AI辅助写代码工具,我用它分分钟写出一个爬虫!

几秒钟后,他返回了修改后和修改前对比的结果,我们点击Accept All接受全部更改。

首个免费的AI辅助写代码工具,我用它分分钟写出一个爬虫!

再次运行,就可以手动输入数字了:

首个免费的AI辅助写代码工具,我用它分分钟写出一个爬虫!

聊天模式

进入聊天模式,用户可以输入一些自然语言的问题,与AI进行对话。例如,选中一些代码然后按下Ctrl+L,输入“请给我解释一下这些代码是什么意思”,按下回车

首个免费的AI辅助写代码工具,我用它分分钟写出一个爬虫!

他就会给你一些解释。甚至你的代码出现报错信息,你也可以丢给他,让他给你提出一些解决步骤。

高阶用法

可以用它写爬虫,半个小时就可以写出一个爬取某锋网ai专栏的数据,代码我贴下面了,需要的自取(仅作学习参考,请不要用作违法)。

首个免费的AI辅助写代码工具,我用它分分钟写出一个爬虫!

import requestsfrom bs4 import BeautifulSoupimport re
# 模拟谷歌ip和请求头headers = {    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 Edge/16.16299',    'X-Forwarded-For': '8.8.8.8'}
# 存储所有a标签内容和链接global a_tag_valuesglobal a_tag_hrefsa_tag_values = []a_tag_hrefs = []
for i in range(1, 101):    url = f'https://www.leiphone.com/category/ai/page/{i}'    response = requests.get(url, headers=headers)
    # 解析网页    soup = BeautifulSoup(response.text, 'html.parser')    news_list = soup.select('div.list-pageList > div.list > ul > li')
    for news in news_list:        box = news.select_one('div.box > div.word')        a_tag = box.find('a')        a_tag_value = a_tag.text.strip()        a_tag_href  = a_tag['href']                a_tag_values.append(a_tag_value)        a_tag_hrefs.append(a_tag_href)
    # 访问所有网站    for href in a_tag_hrefs:        response = requests.get(href, headers=headers)        soup = BeautifulSoup(response.text, 'html.parser')        article = soup.select_one('div.lph-article-comView')        # 获取文章标题        title = soup.select_one('h1.headTit').text.strip()        # 替换无效字符        title = re.sub(r'[\/:*?"<>|]', '-', title)        # 转为md语法        md_article = f"## {title}n```n{article.text}n```"        print("文章"+title+"输出中")        with open(f'ai/{title}.md', 'w', encoding='utf-8') as f:            f.write(md_article)    # 清空数组    a_tag_values = []    a_tag_hrefs = []

本篇文章来源于微信公众号: AI哲思之旅

© 版权声明

相关文章

暂无评论

none
暂无评论...