我有这样的桌子
表id Varchar(45) NOT NULL AUTO_INCREMENT PRIMARY KEY,名称 CHAR(30) 非空,我想增加我的 id 字段,例如 'LHPL001','LHPL002','LHPL003'... 等.我该怎么做?请让我知道任何可能的方式.
如果你真的需要这个,你可以在单独的排序表(如果你不介意的话)和触发器的帮助下实现你的目标.
表格
CREATE TABLE table1_seq(id INT NOT NULL AUTO_INCREMENT PRIMARY KEY);创建表 table1(id VARCHAR(7) NOT NULL PRIMARY KEY DEFAULT '0', name VARCHAR(30));现在是触发器
DELIMITER $$创建触发器 tg_table1_insert在插入 table1 之前每行开始插入 table1_seq 值(空);SET NEW.id = CONCAT('LHPL', LPAD(LAST_INSERT_ID(), 3, '0'));完$$分隔符;然后您只需将行插入到 table1
INSERT INTO Table1(名称)值('约翰'),('马克');你就会有
<前>|身份证 |姓名 |------------------|LHPL001 |约翰 ||LHPL002 |马克 |这是SQLFiddle 演示
I have table like this
table
id Varchar(45) NOT NULL AUTO_INCREMENT PRIMARY KEY,
name CHAR(30) NOT NULL,
I want to increment my id field like 'LHPL001','LHPL002','LHPL003'... etc.
What should I have to do for that? Please let me know any possible way.
If you really need this you can achieve your goal with help of separate table for sequencing (if you don't mind) and a trigger.
Tables
CREATE TABLE table1_seq
(
id INT NOT NULL AUTO_INCREMENT PRIMARY KEY
);
CREATE TABLE table1
(
id VARCHAR(7) NOT NULL PRIMARY KEY DEFAULT '0', name VARCHAR(30)
);
Now the trigger
DELIMITER $$
CREATE TRIGGER tg_table1_insert
BEFORE INSERT ON table1
FOR EACH ROW
BEGIN
INSERT INTO table1_seq VALUES (NULL);
SET NEW.id = CONCAT('LHPL', LPAD(LAST_INSERT_ID(), 3, '0'));
END$$
DELIMITER ;
Then you just insert rows to table1
INSERT INTO Table1 (name)
VALUES ('Jhon'), ('Mark');
And you'll have
| ID | NAME | ------------------ | LHPL001 | Jhon | | LHPL002 | Mark |
Here is SQLFiddle demo
这篇关于如何使用某些前缀使 MySQL 表主键自动递增的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持html5模板网!
如何有效地使用窗口函数根据 N 个先前值来决定How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函数根据
在“GROUP BY"中重用选择表达式的结果;条款reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用选择表达式的结果;条款?)
Pyspark DataFrameWriter jdbc 函数的 ignore 选项是忽略整Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函数的 ig
使用 INSERT INTO table ON DUPLICATE KEY 时出错,使用 Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 时出错,使用 for 循环数组
pyspark mysql jdbc load 调用 o23.load 时发生错误 没有合pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 调用 o23.load 时发生错误 没有合适的
如何将 Apache Spark 与 MySQL 集成以将数据库表作为How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何将 Apache Spark 与 MySQL 集成以将数据库表作为